🧠 概要:
概要
この記事では、Pythonを用いてWebスクレイピングを行い、その結果をGitHub Actionsを利用して定期的に実行し、Gmailで通知を受け取る方法について解説しています。特に、Python初心者やGitHubに不慣れな方を対象にしており、簡単に試すことができる手順を示しています。
要約(箇条書き)
-
はじめに
- PythonでのWebスクレイピングを学習した経験から、作業を自動化したいと考えた。
- ローカルPCでの定期実行には限界を感じ、より簡単な方法を探していた。
-
対象読者
- PythonのWebスクレイピングを学習した初心者。
- GitHubにあまり触れたことがない方。
-
できること
- Pythonスクリプトを無料でサーバ上で定期実行。
- 実行結果をGmailで通知する。
-
実現手順
- GitHubの登録とリポジトリ作成。
- Pythonコードのアップロード。
- GitHub Actionsによる定期実行設定。
- Gmailでの通知確認。
- Sampleページ
- 設定の手順を画面キャプチャなどで示し、GitHubの設定をわかりやすく整理。
はじめに
当初はPythonでのWEB scrapingを学習した後に実際に稼働させてみたくいろいろと試行錯誤してみました。また、これまで実行環境はローカルPC上であったため、定期実行をする場合はPCを常時稼働させ、タスクスケジューラーを使うしかありませんでした。
サーバ上で実行するにもクラウドやレンタルサーバーを準備するのも面倒だしあまりお金もかけたく無いなと思っていました。
Python初学者の方は実際にこのように感じている人が多いのではないでしょうか。
試行錯誤した結果、Python Scrapingを無料で定期実行させ、結果をGmailで通知させることが出来るようになりました。
対象読者
この記事の対象読者は以下のような初学者を想定してます。
・PythonのScrapingを一通り学習し、実践的に使いたいPython初心者。
・Githubは聞いたことあるけどあまり触ったことが無い方。
できること
以下のことが理解でき、実行できるようになるため時短や効率化を実現することができます。
・Pythonを無料でサーバ上で定期実行させ、その実行結果をGmailで通知させる。
上記を実現するために具体的に以下の手順を整理しています。
-
GitHubの登録とリポジトリ作成
-
Pythonコードのアップロード
-
GitHub Actionsによる定期実行設定
-
Gmailでの通知確認
Sampleページ
以下は整理した手順のSampleページの一部です。画面キャプチャを使い、主にGithubの設定をわかりやすく整理しています。

Views: 0