※当記事は、「Python」についてざっくりと説明しています。※
どうも、エフカです。
今回からプログラミング言語について書いていこうと思います。
紹介するのは「Python」という言語になります。
(なにそれ?「Java」なら聞いたことあるけど、、、、」という方も多いと思いますが、「Python」を紹介します。)
正直、エフカ自身も「Java」や「C」について説明しようかとも思いましたが以下理由により辞めました。
- 「Java」は「オブジェクト指向」が小難しく挫折する人が多い
- 「C」は色々と出来ることが多すぎる
ということで、今回は「Python」についてざっくり説明しようと思います。
Pythonってなに?
そもそも、「Python」ってどんな言語なんでしょう。
Wikipediaで調べてみると、
・コードがシンプルで扱いやすく設計されており、C言語などに比べて、さまざまなプログラムを分かりやすく、少ないコード行数で書けるといった特徴がある
・核となる本体部分は必要最小限に抑えられている。一方で標準ライブラリやサードパーティ製のライブラリ、関数など、さまざまな領域に特化した豊富で大規模なツール群が用意され、インターネット上から無料で入手でき、自らの使用目的に応じて機能を拡張してゆくことができる。
とあります。
なんだか、難しいことが書いてありました。(よく分からん。)
簡単にまとめると、
- コードが簡単で分かりやすい。
- コードを簡単に書くためのツール(エクセルの関数みたいなもの)がたくさんある。
ということです。
とりあえず、「コードが簡単に書けて、ツールがたくさんある言語が「Pythonなんだ。」というこはご理解いただけたでしょうか?
では次に、Pythonではどんなプログラムを開発することが出来るのでしょうか?
Pythonでできること
ネットで調べてみると、
Pythonで出来ることは、主に以下の2つのようです。
・Webクローリング
・Webスクレイピング
(他にディープラーニングでの開発なども出来る様ですが入門編なので省きます。)
さてさて、さらに分からない単語がたくさん出てきましたね。
そもそも、クローリングって?スクレイピングって?なんでしょう?
一つ一つ疑問を潰して、着実に理解しましょう。
クローリング?スクレイピング?
IT用語大全によると
クローリング(Crawling)
インターネット上のあらゆるWebサイトの情報を取得して、検索用データベース・インデックスを作成する自動巡回プログラムのことである。Webサイトを這う(クロールする)こと
スクレイピング(Scraping)
WebサイトからWebページのHTMLデータを収集して、特定のデータを抽出、整形し直すことである。
こちらもなんだか堅苦しいですね。(やっぱり、よく分からん。)
簡単に言うと、
- 「クローリング」とは、「Webの情報を自動で集めているプログラム」であり、
- 「スクレイピング」とは、「Webサイトからデータを抽出・加工する」ことです。
つまり、「Webページにある(自分の欲しい)情報を自動で取得することが出来る」言語それが「Python」です。
それでは、実際にPythonを使って見ようと思います...が、そのためには色々と準備しないといけないことがあるんです。
それについても記載しようと思いましたが、記事が長くなるので、次回以降に紹介したいと思います。(スミマセンm(_ _)m)
今回の記事は以上となります。
ここまで読んで下さってありがとうございました。