仕組みが分る「独習Python入門【湯本堅隆著】」を読んで

pika1.0で作成した動画の画像 未分類
pika1.0で作成した動画の画像

本との出会い

読みやすい本に出会えると嬉しいものです。「一日でプログラムに強くなれる」と豪語する本と出会いました。湯本堅隆著、独習Python入門です!!電気、インターネット、AIと時代を変えるインフラが登場してます。株式市場が過剰に反応したり。そんな中でAIで世界がどう変わるか不確実な前提で議論が進みます。稼働エネルギーの問題、Googleやアマゾンの思惑、教育の現場での問題解決が大事ですね!!

この本ではプログラムを次のように簡単に解釈しています。少し古い本ですが読んで良かった。

この本でプログラムの仕組みが良く分かります。

分岐処理(場合分け)

プログラムの仕組みとして場合分けが大事です!!例えば「注目している変数が正なら処理を続け、負なら処理を終える」というルールを全体に組み入れます。

実際にPythonのコマンドでは次のようなコマンドがあります。

# 変数の値を入力 variable = float(input("変数の値を入力してください: ")) # 変数の値に応じて場合分け if variable > 0: # 変数が正の場合の処理     print("変数は正です。処理を続けます。")
# ここに処理を追加する else:
# 変数が負の場合の処理
print("変数は負です。処理を終えます。")     # 処理を終了するためのコードを追加する(例えば、プログラムを終了する)     exit()

この例では、ユーザーに変数の値を入力してもらい、その値が正か負かに応じて場合分けを行っています。変数が正の場合は処理を続けるメッセージを表示し、変数が負の場合は処理を終了するメッセージを表示してプログラムを終了します。

反復処理(くり返し)

Pythonプログラムで考えた時に反復処理も超重要です。もちろんC言語やFORTRAN等の他言語でも重要ですので、重要性は強調する必要もないかもしれませんね!!

条件付きで繰り返すことで色々な論理的作業が出来ます。

関数処理(ひとまとめに)

プログラム言語としてPythonが優秀な理由は関数が便利で、なおかつプラグインが豊富な点です。

関数が簡潔で使いやすく、洗練されています。この点で初学者はPythonを信頼して問題無いです!!

プラグインは色々な開発者が工夫した成果を惜しげもなく公開してます。これまた便利!!

形式理解(データ型)

別項で解説しているように、Pythonではリスト、タプル、辞書、集合のデータを扱います。そしてそのデータを特定のプログラム処理の形式(方法)で処理します。

大まかには以上記載した分岐処理、くり返し、関数、形式を順番に覚えたらPythonプログラムが書けます。後は実務でのエラー標示との戦いだけです。

そしてスクレイピング

何よりネット環境が整っている現在、ネットをPythonプログラムで見てみましょう!!対象としたサイトをAIを使ったPythonプログラムで分析できるのです。魅力的ですね。

具体的には以下作業となります。

ネット上の情報をPythonプログラムで分析するのは確かに魅力的ですね!具体的な作業手順を以下に示します。

Pythonの準備:

Pythonのインストールがまだの場合は、Python公式サイトからインストールしましょう。
また、依存ライブラリをインストールするために、pipを最新の状態に保ちます。

ライブラリのインストール:

必要なライブラリをインストールします。Webスクレイピングやデータ解析には、Beautiful SoupやRequests、pandasなどがよく使われます。

pip install beautifulsoup4 requests pandas

Webページの取得:

Requestsライブラリを使用して、対象のWebページからデータを取得します。

import requests
url = 'https://example.com' response = requests.get(url)
if response.status_code == 200:
# データ取得成功
html_content = response.text
else:
    # エラー処理     print("Failed to retrieve page:", response.status_code)

データの解析:

Beautiful Soupを使って、取得したHTMLデータを解析します。

from bs4 

import BeautifulSoup

soup = BeautifulSoup(html_content, ‘html.parser’)

# 例えば、特定の要素を取得する場合
 title = soup.title
print("Title of the page:", title.text)

データの分析:

解析したデータを使って、目的に応じた分析を行います。たとえば、テキストの解析、統計処理、可視化などがあります。

# 例: テキストデータの解析
 paragraphs = soup.find_all('p')
for paragraph in paragraphs:
    print(paragraph.text) # その他の分析手法を適用する

AIの利用:

必要に応じて、機械学習や自然言語処理の手法を使って、より高度な分析や予測を行います。例えば、テキスト分類、感情分析、要約などがあります。

これらの手順を組み合わせて、対象のWebサイトからデータを取得し、分析するPythonプログラムを作成できます。ただし、注意点として、Webスクレイピングはサイトの利用規約に違反する場合があるため、利用するサイトのポリシーを確認し、適切にアクセスしてください。

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

雑記の纏め記事に戻る

Pythonをテックジムで学ぼう

Python学習での諸情報

コメント

タイトルとURLをコピーしました