PigData - ビッグデータ収集・分析・活用ソリューション

お問い合わせ
  • サービス&ソリューション
    • スクレイピング
      代行サービス
    • Webサイト更新チェックツール「TOWA」
    • データ統合&自動化システム構築サービス
    • サステナビリティ情報通知ツール「サステナモニター」
    • 最新営業リスト作成・管理
      ダッシュボード
    • Tableau構築支援サービス
    • シフト自動最適化AIソリューション
      「Optamo for Shift」
  • 導入事例
  • PigUP
  • ブログ
  • 運営会社
  • 資料ダウンロード
  • お問い合わせ
  • プライバシーポリシー
  • セキュリティポリシー
  • トップに戻る
「Web Scraper」でのスクレイピング方法 - ブログ画像

chrome拡張機能「Web Scraper」でのスクレイピング方法をご紹介

PigData > ブログ > chrome拡張機能「Web Scraper」でのスクレイピング方法をご紹介
「Web Scraper」でのスクレイピング方法 - ブログ画像
2024.06.17
    スクレイピングの内製化を行う前に読むべき必須資料をダウンロードする

    GoogleChromeには、拡張用機能の「Scraper」がついています。Scraperを使用すれば、無料でスクレイピングして他サイトの情報を簡単に収集できます。会社の方針を決定するためには、データの収集と分析は欠かせません。この記事ではScraperを利用してできることと操作方法を解説します。スクレイピングをしたい方は、ぜひ参考にしてください。

    目次

    1. Googleの拡張機能「Scraper」でできること
    2. Scraperの始め方とスクレイピング方法
    3. Webスクレイピングを「Scraper」でおこなう問題点
    4. まとめ

    Googleの拡張機能「Scraper」でできること

    Googleの拡張機能「Scraper」でできることは以下の通りです。

    • Web上から情報を自動抽出する
    • 不必要な情報を削って収集する

    インターネット上には、膨大な量のサイトと情報があります。そのため、少ない人材で手動によって情報を収集するのは不可能です。必要な情報だけを抽出するためには、スクレイピングに特化したツールを活用しなければいけません。

    Scraperなら、web上から必要な情報を自動で抽出することが可能です。さらに、不必要な情報を指定することで、必要なデータだけに限定できます。Scraperは、膨大な情報が溢れているインターネットの空間から必要な情報を受け取り、分析に役立てられるのです。

    Scraperの始め方とスクレイピング方法

    ここからは、Scraperの始め方と具体的なスクレイピング方法について解説します。インストールの段階から解説していくので、初めて使用する方でも安心してください。ただしGoogleChromeのインストールは、すでにしてある前提です。GoogleChromeをブラウザに設定していない方は、インストールしてからこちらの記事に戻ってきてください。

    ScraperをChromeに追加

    ScraperはGoogleの拡張機能なので、インストールしてChromeに追加します。ChromeWebストアを開き、「WebScraper」を検索します。Scraperが見つかったら「Chromeに追加」をクリック。すると、拡張機能としてWebScraperがブラウザに追加されます。きちんと拡張機能が追加されたか確認するには、ブラウザの右上にある「拡張機能」のボタンをクリックします。拡張機能の一覧にWebScraperが追加されていれば、インストールは成功でいつでも使用可能な状態です。

    Web Scraperをダウンロードする

    サイトマップを新規で作成

    データ収集をするためには、スクレイピングをしたいサイトのURLを登録します。手順は以下の通りです。

    今回は例として記事一覧が掲載されているページからデータを取得していきます。

    1. 「Create new sitemap」から「Create Sitemap」を選択
    2. 「Sitemap name」にサイトマップの名前を記入
    3. 「Start URL」の部分にはスクレイピングをするサイトの最初のページのURLを入力

    上記のすべての入力が終了すると、スクレイピングの準備は完了です。最後に、「Create Sitemap」ボタンをクリックしてください。これでサイトマップの登録ができました。

    投稿リストのリンクを取得

    サイトマップを作成したら、あらかじめ決めておいた収集したいデータを絞り込んでいく段階に入ります。単一のサイトでも、膨大な量のデータがあるため必要なものだけを取り出さなければいけません。収集したいデータの指定方法は以下の通りです。

    1. 「Add new selector」をクリックして新規のセレクターを追加
    2.  サイトの記事一覧のタイトルを取得したいので「id」に任意のidを入力
    3. 「Type」では属性を入力する
    4. 「Select」ボタンをクリックすることで指定したデータの取得が始まる

    記事一覧が掲載されているサイトの中には多様なコンテンツがあるため、今回は記事一覧のリンクを取得して、分析時に管理を容易にします。「id」には「posts」と入力しておきましょう。記事情報の中でも、文字情報が欲しい場合は「Text」、全ての文字情報が欲しい場合はまるごと収集するため「HTML」など、わかりやすいidを入力すると便利です。

    スクレイピングのツリー構造を確認

    スクレイピングをしていくと取得した情報がどこに配置されているか分からなくなる場合があります。そのため、スクレイピングのツリー構造を確認できるようにするのも大事です。

    1. メニューから「Select graph」をクリック
    2. サイトマップの構造が確認できる

    スクレイピングを継続している際に、サイトの構造がわからなくなった場合はツリー構造を何度も確認しましょう。データの分析段階では、データ管理やラベリングが非常に大事です。

    スクレイピングの開始

    スクレイピングの実行をする準備は整っていますが、開始前にアクセスしたページにどの程度の時間待機するのか設定しましょう。

    1. 「Request interval(ms)」、「Page load deley(ms)」で調整
    2. 「Start scraping」をクリックすれば、スクレイピングが開始される

    他社が運営しているサーバーに負荷をかける可能性があるため、滞在時間の設定は大事です。あまり負荷をかけすぎると、サイトがダウンしてしまいます。最悪の場合はスクレイピングをしている側が罪に問われることもあります。

    取得データはCSVでダウンロードできる

    スクレイピングが終わると、取得したデータをCSVデータとしてダウンロードできます。メニュー欄から「Export data as CSV」ボタンをクリックするだけです。スクレイピング後の取得データをCSV化して、データ分析のために加工用の元データとして保存しておけます。また、CSVデータを別途保存すれば半永久的にデータを持って置くことも可能です。データ分析を経営に活用したい方は、必ずダウンロードしておきましょう。

    有料プランで使える機能

    Scraperは課金制度によって使える機能を増やせます。無料プランでは限定されているため、使用してみて機能を高めたい場合は有料プランに切り替えましょう。有料プランで使用可能になる主な機能は以下の通りです。

    • DropBoxへの自動エクスポート
    • 長期のデータ保存(30~60日間)
    • メールでのシステムサポート

     

    Webスクレイピングを「Scraper」でおこなう問題点

    Scraperは便利なツールですが、問題点も存在しています。あらかじめ問題点を把握しておけば、解決策も用意できます。使用する前に問題点と解決方法を把握しておきましょう。

    日本語に対応していないので使いにくい

    Scraperは日本語に対応していないので、英語が苦手な方には使いにくい仕様になっています。Scraperは、基本的にすべて英語での表記です。もちろん、本記事のように使用方法を日本語で解説しているコンテンツはあります。また、ブラウザで日本語バージョンにすることもできます。

    しかし、使用方法を確認しながらスクレイピングするのは時間がかかること、また、日本語バージョンにしても、不自然な日本語でわからない場合もあります。

    会社内で使用する場合は、英語とITに精通している人材を用意しなければいけません。

    無料プランでは機能が制限されている

    Scraperは無料プランでも使用可能ですが、機能が制限されているのも問題点の一つです。Scraperには有料プランが用意されていて、課金すればさらに便利になります。ただし、有料になるため、当然のことですが支出が増えます。Scraperの機能を充分に使うためには、有料プランの登録が必要になることも認識しておきましょう。

    日本の法律について考慮されていない

    Scraperでスクレイピングを実装することは可能ですが、スクレイピングをするということは法律面での考慮が必要となっています。特にScaraperのようなツールを使う際に気を付けるのは偽計業務妨害罪です。スクレイピングツールを使うことでデータ収集しているサイトに負担がかかり、そのサイトがサーバーダウンなどしてしまうと、損害賠償が発生する可能性があります。Scraperを利用する前に対象となるWebサイトにとって負荷がどのくらいかかるかを調査する必要があります。

    【IT弁護士監修】スクレイピングは違法?法律に基づいて徹底解説

    スクレイピングに手間がかかる

    Scraperを使用したとしても、スクレイピングは手間も時間もかかってしまうのも問題点です。スクレイピングは小規模のサイトの場合はすぐに終わりますが、大規模で複数のサイトをおこなうことになれば時間も手間もかかってしまいます。そのため、Scraperの操作に精通した人材を探して雇用しなければなりません。

    スクレイピングを大規模におこなう場合は、専門の会社にアウトソーシングすることも検討するとよいでしょう。また、Scraperでスクレイピングの時間を短縮させようとすると、他社のサイト運営の妨害になる場合があります。専門の会社への依頼は、会社にかかる負担やリスクを解消するための解決策でもあります。

    Web Scraper以外のスクレイピング方法

    WebScraper以外にもWebスクレイピングを実施する方法はいくつかあります。代表的なものをご紹介します。

    ツール

    WebScraper以外にもSaaS型のツールやデスクトップ型のツールなど、スクレイピングを実施できるツールがあります。ツールごとに無料・有料とあり、できる範囲も異なるため、用途に合わせて何を使うか検討しましょう。

    厳選スクレイピングツール10選!情報収集を自動化する方法

    VBA

    ExcelのVBAを活用することでスクレイピングを実施できます。Excelに慣れている場合はVBAに挑戦してみるのもよいでしょう。

    【サンプルコード公開】スクレイピングをVBAで実現するには?

    コード開発

    実施したいスクレイピングの内容に沿ってプログラミングを組む方法です。スクレイピングに詳しい技術者がいる必要がありますが、スクレイピングを内製したい場合はこの方法が一番確実でしょう。

    新規CTA

    スクレイピング専門業者に委託

    スクレイピング専門でサービスを提供している企業であれば、安全で確実にスクレイピングを実施できます。他の方法よりコストはかかるかもしれませんが、長期的にWebデータが必要な場合や、確実性を求める場合には代行依頼をすることをお勧めします。

    Webスクレイピングサービス企業5選!面倒なデータ収集を自動化

    まとめ

    データを活用する会社は増加傾向にあり、利益も着実に伸びています。データ活用をするためには、その前段階にあたるスクレイピングは必須です。スクレイピングはGoogleの拡張機能「Scraper」でも可能です。

    ScraperはGoogleChromeを使用している方なら、インストールすれば無料で使えるツールです。取得したいデータを指定すれば、不必要な情報を削ることも可能です。ただし、Scraperの無料プランでは機能が制限されてしまい、有料プランが必要な場合があります。また、データの収集が膨大な量になった場合、手間と時間がかかります。データスクレイピングをして、経営に活用したい場合は専門の会社に依頼することも検討しましょう。

    スクレイピングの内製化を行う前に読むべき必須資料
    ダウンロード

    記事を検索する

    • 全て
    • 業務効率化
    • データ活用
    • ビッグデータ
    • 営業
    • マーケティング
    • スクレイピング
    • 基礎知識
    • DX
    • データ分析
    • スクレイピング法律
    • セドリ
    • 飲食店
    • 不動産
    • 観光
    • SNS
    • IT用語
    • データ収集
    • 補助金
    • 社員渾身ブログ
    • 監視
    • AI
    • 市場調査
    • エンジニア
    • サステナビリティ
    • データ分析基盤
    • ニュース

    ピックアップ記事

    • Webスクレイピング大全!これさえ読めばすべてがわかる
    • Webスクレイピングサービス企業5選!
      面倒なデータ収集を自動化
    • マル秘!Webサイト更新チェックツール活用術!
    • ESG担当者必見!関わる基礎知識を一挙公開
    • 【IT弁護士監修】スクレイピングは違法?法律に基づいて徹底解説
    • Webサイトの更新を自動でチェックする方法は?通知機能も活用!
    • 【まとめページ】社員が本気でふざけるデータ活用ブログ

    よく読まれている記事

    • 画像一括ダウンロードが簡単にできる方法!画像収集の悩みを解決
    • Webサイトの更新を自動でチェックする方法は?通知機能も活用!
    • 【2025年最新】今更聞けないIT用語67選
    • スクレイピングは違法?禁止サイト6選とその見極め方
    • chrome拡張機能「Web Scraper」でのスクレイピング方法をご紹介

    前の記事

    業界別DX事例29選!事例から学ぶ成功の特徴も解説

    ブログ一覧へ

    次の記事

    【IT弁護士監修】スクレイピングは違法?法律に基づいて徹底解説

    お問い合わせ・資料ダウンロード

    サービス&ソリューション
    • スクレイピング
      代行サービス
    • Webサイト更新チェックツール「TOWA」
    • データ統合&自動化システム構築サービス
    • サステナビリティ情報通知ツール「サステナモニター」
    • 最新営業リスト作成・管理
      ダッシュボード
    • Tableau構築支援サービス
    • シフト自動最適化AIソリューション
      「Optamo for Shift」
    • 導入事例
    • ニュース&ブログ
    • 運営会社
    • 資料ダウンロード
    • お問い合わせ
    • プライバシーポリシー
    • セキュリティポリシー
    keyboard_arrow_up

    Copyright © SMS DataTech All Right Reserved