「新型コロナ」で株価急落?Webスクレイピングで日経平均株価を取得してみた

新型コロナ

 

2020年1月に中国で感染が報告された新型コロナウィルス(COVID-19)は、世界に蔓延し、3月中旬には他国の感染者数が中国の感染者数を追い抜きました。各国で外出制限等が行われ、金融市場は大きく動き、実体経済も多くの国で大きく落ち込みました。新型コロナウイルスパンデミックを受けて、株式市場の大幅な下落も生じています。

この記事では、1月から4月までの日経平均株価スクレイピングしようと思います。今回はYahoo!ファイナンスのWebサイトの公開しているデータを利用します。以下URLで、日経平均株価データ過去4ヶ月分を参照できます。

https://info.finance.yahoo.co.jp/history/?code=998407.O&sy=2020&sm=1&sd=1&ey=2020&em=4&ed=30&tm=d

 

それでは、始めましょう!

 

データ収集

PythonAPIなどで株価データをスクレイピングすることがよくありますが、Pythonだと作業が複雑になり、無料API情報も持ってないので、今回はスクレイピングツールであるOctoparseを使います。

最新バージョンの8.1版はWebページの自動認識機能が備え、先のURLを入力するだけで、肝心なデータが検出され、実行すると、すばやく抽出できます。

自動識別機能

 

Pythonなどは割と高速ですが、過去1年以上の時系列データをスクレイピングしようとするとやはり時間がかかります。株価分析したい時、大量のデータを解析したい場合は、やはりOctoparseなどのスクレイピングツールでデータ収集するのが最も効率的だと思います。しかもハンズフリーでデータをスクレイピングできるのは素人にもやさしいですね。

以下は取得したデータです。整理することもなく、完璧なデータフォーマットです。

サンプルデータ

 

データ分析

今回はデータも取得したので、公式のものほど完璧ではありませんが、Excelで株価のグラフを作ってみました。

日経平均株価

 

グラフに見れば、日経平均株価は2/21の23,386.74円から暴落が続いて、3/19に目先の底値16,552.83円を付けました。日銀による買い支えもあって目先戻り基調となり、3/25には戻り高値19,546.63円まで戻しました。4/1には18,065.41円まで下げたが、今では、暴落はいったん下げ止まり、しかも徐々に上げています。

新型コロナウイルス感染症の流行拡大による混乱により、日本だけでなく、世界各国の株式市場も下落が続いています。アメリカ株式市場でも、3月9日、12日、16日の取引で寄り付き直後にS&P500種株価指数が7%を超える下落となり、取引が15分間停止されるサーキットブレーカーが発動されました。この措置が発動されたのは1997年以来です。

アメリカ株式市場

 出所:ピクテ投信投資顧問株式会社

 

まとめ

過去、株式市場は何度も、様々な理由で急落を繰り返してきましたが、今回の新型コロナウイルスの世界的な感染拡大については、工場の生産能力の低下、サプライチェーンや交通網の遮断など供給面での影響(供給ショック)への懸念が株価の下落に繋がりました。グローバル化が進んだから、どこかの国で新型コロナウィルスの影響が続けば、それが他国の経済活動に影響し、それだけに厳しい局面が続きそうと思います。

いずれにしても、一刻も早く事態が収束し、新型コロナウィルス危機を乗り越えられるよう望んでいます。

 

元記事:https://www.octoparse.jp/blog/scraping-stock-prices/

スクレイピング業界の変革|Octoparse 新バージョン 8.1 Beta がリリース!

WebスクレイピングツールであるOctoparseの新バージョン ver 8.1 が2020年4月15日よりリリースされました。今回の新バージョンのリリースでは、、Webページの自動認識機能の追加と内蔵ブラウザのアップグレードにより、パフォーマンスが向上し、データ取得の効率を大幅に改善しました。 また、ユーザインターフェースの改善により、インストールからタスク作成、実行中の操作まで、使いやすさも向上しました。

今回の主なバージョンアップ項目は以下のようになります。

 

1.ハンズフリーでデータ抽出が可能

「Webページの自動認識」機能を追加するにより、WebページのURLアドレスを入力するだけで、Octoparseは自動的にWebページを分析し、ワークフローを自動的に生成するようになります。Webページ上のテキスト、画像、リンクなどの情報を識別でき、収集するデータフィールド、ページネーション、スクロールダウンなどの設定を自動的に推奨できます。複数の認識結果が表示され、簡単に切り替えられ、一般的なニーズを満たすことができると思われます。超初心者でも手軽にデータをスクレイピングできるようになりました!

自動識別

 

 


2.高度なブラウザ互換性

内蔵ブラウザをFirefoxからGoogle Chrome 8.0に切り替えました。以前のバージョンで読み込めなかったWebサイトは、Octoparse 8.1ですぐに読み込めるようになります。あらゆるWebサイトがOctoparseの内蔵ブラウザに開けられるように努めています。

 


3.より高速なスクレイピング速度

Webデータ収集のプロセスにおいて、更なる高速化が求められています。スクレイピング速度も、高品質のスクレイピングツールのコア競争力です。以前のバージョンと比べて、Octoparse 8.1は、10倍高速で応答性が向上しています。OP 7.0が100件データを抽出するのに21分41秒かかりましたが、OP 8.1が同じWebページから同じ量のデータを取得するのに2分しかかかりませんでした。

 


まとめ

新バージョンに関する詳細はこの記事をご覧ください。Octoparseへのご意見、アドバイスなどがございましたら、ぜひご遠慮なくお寄せください。Octoparseは引き続きより良いサービス・機能を提供できるよう努めております。

 

元記事:スクレイピング業界の変革|Octoparse 新バージョン 8.1 Beta がリリース!

未経験からデータアナリストを勉強すべきスキルとは?

f:id:octoparse:20200225110828p:plain

 

「データアナリストになろうと思うけど、その将来性について不安がある。また、自分がデータアナリストに向いているのか?どんな必要なスキルがあるだろう?頑張りたいけど、いったいどこから手をつけたらいいだろう…もしわかれば、教えてください!」

 

本記事は、こういった疑問に答えます。これから未経験からデータアナリストを独学する前に知っておくこと、それに必要なスキルや勉強方法について解説します。

 

この記事を読むことで、「データアナリストの仕事内容、その将来性と必要なスキル、学習リソース」までをイメージできるようになると思います。

それでは、さっそく見ていきましょう。

 

 

1.データアナリストとは

データアナリストとは簡単に言えば、企業が抱える課題に対してデータを専門に分析する作業を行っている人です。

データアナリストはデータサイエンティストより「データの活用」が重視され、データ分析そこから見えてくる将来予測や課題の解決策を提案します。

 

  1.1仕事内容

この前も言いましたが、具体的にはデータアナリストの主な仕事はその膨大なデータを分析し、その中から消費者の行動や市場の動向などを見出し、仮説を立てて問題解決の手段を提案したり、サービス改善などに役立てることです。

もちろん業界によって、それぞれの分析手法に違いがあります。

 

  1.2種類

f:id:octoparse:20200225110850j:plain



求人サイトに掲載しているデータアナリストは主に「コンサル型」と「エンジニア型」に分類されています。

コンサル型データアナリストは、主に企業の課題点に対して、仮説を立ててデータ解説を通じて分析し、解説策を提案するのが仕事です。主にマーケティング会社や経営コンサルタント会社などに所属しています。

それに対して、エンジニア型データアナリストの業務は、機械学習データマイニングといった手法を用いて、顧客の行動パターンを分析し、商品やサービスの開発・改善に活用できるデータを提供するのが仕事です。

 

2.データアナリストの現状と将来性

 

世の中にはデジタル情報が溢れるようになり、インターネットが爆発的に普及している時代。さらに至るところにデータが存在し、「情報爆発」と言っても過言ではないこの時代になっています。このような時代において、大量なデータを扱いビジネス価値を見出すデータサイエンスは年々注目が高まっている存在となっています。

さらに将来、AIが社会に浸透することで、それにより奪われやすいのにはほぼ定型作業に充てる職業。その一方、奪われにくい職業には複合的な知性や複雑な判断が要求される傾向があります。明らかにデータアナリストもその奪われにくい職業の1つです。

現在IT・WEB・金融など、幅広い業界において、データアナリストへの需要が大幅に供給を超えています。いわゆる求人不足の状況となっています。そのため、一部の企業はデータ分析の素養を持ちながら、未経験であっても学習意欲の高い求職者すら採用する場合もあります。ということで、今からデータアナリストを勉強して、成功に転職するチャンスが待っています。

 

3.データアナリストにどんな人が向いているのか?

 

さあ、データアナリストにはどんな人が向いているのかと疑問している方がいるでしょう。

以下画像はあくまで自分の意見ですので、ご参考いただけばと思います。

f:id:octoparse:20200225110914j:plain



 


4.データアナリストに必要なスキル

 

  4.1.統計解析

データ分析にかかわる仕事には統計解析が欠かせない基本スキルです。SPSSSASなどの統計解析ソフトウェアを使って勉強する方法もあります。

 

  4.2.   SQL

エンジニア型データアナリストになりたい人にとってSQL言語は学ばなければならないでしょう。データアナリスト、Web担当者、プロダクトマネージャー、特にインターネット業界はSQLの知識を持つ必要があります。

 

  4.3.Python

Pythonは主に、基本的な構文、pandas操作、numpy操作、sklearnモデリング、WebクローラーPythonでデータをクロールする方法などを習得する必要があります。

また、今Pythonの代わり、データを簡単に取得できるスクレイピングツールも登場してきました。Octoparseというスクレイピングツールはデータ取得をもっと簡単に取得してくれるツールです。Octoparseを使いこなせば、Pythonでのデータ取得と同じ効果が得られます。

 

  4.4.R言語

R言語は統計のために存在すると言っても過言ではありません。R言語の基本的な構文、データ管理、データマイニングモデリング、および評価を習得する必要があります。

 

  4.5.  データ可視化

データ分析の初心者である場合、それ以上に大切なことはまず「自らデータに触れる」ことだと思います。データ分析にはBIツールを利用して、データの可視化を通して分析を行うのが一般的です。データが取得できたら、2020年おすすめのBIツールからご自身に最適なツールを使って分析してみてください。

 

5.データアナリストになるための学習リソース

 

  5.1.統計解析

統計学入門!文系でもわかる基本知識とおすすめの勉強法

  5.2.   SQL

https://www.classcentral.com/search?q=sql

https://employment.en-japan.com/engineerhub/entry/2019/11/05/103000

  5.3.Python

https://www.classcentral.com/search?q=python

  5.4.R言語

https://udemy.benesse.co.jp/ai/r-language.html

https://www.classcentral.com/search?q=r-programming

  5.5.  データ可視化

https://www.classcentral.com/subject/data-visualization

 

いかがでしょうか。データアナリストを独学する前にやるべきことが少しでもイメージできましたか?

 

Tableauで新型コロナウイルスの感染状況を可視化してみた

数日前、「データ分析がどのように新型コロナウイルスの真実を明らかにするのか?」という記事を発表し、コロナウイルス(COVID-19)の社会的影響を分析しました。ただし、一部の人は、今回の爆発的な感染についてまだ完全に理解していません。ですから、今回はより客観的な視点から新型コロナウイルスの感染状況を可視化してみます。

 

始めるには

まず、Webスクレイピングから始めて、中国の国民健康委員会のサイトからデータを抽出し、Tableauを利用して感染状況を可視化します。また、ダッシュボードを作成して、日付と地域を簡単に切り替えて、より詳細に表示できるようにしました。

ダッシュボード

免責事項:

収集したデータは2月11日までであることに注意してください。この記事を読んでいる時、データが更新されなく、最新の状況を反映できない可能性があります。記事の後半でライブデータに対応する方法を説明します。今回はまた、コーディングしなく、スクレイピングツールを使って、データを抽出します。

 

データソースを選択する

コロナウイルスのデータをGoogleで検索すると、多くのリソースが見つかるはずです。Kaggleのようなソースは、他の人によって収集された二次データであり、中国の公式Webサイトのような一次ソースからの最新データより遅れています。正確性と適時性に厳しい基準を持っているデータアナリストの場合、二次データで結論を導き出すことは避けてください。今回、中国のCoronavirus Update Sourceを選択します。このサイト上のデータはJSONとして保存されているから、APIを介して個々の都市のデータをシステムにインポートできるようにしました。(JSONファイルのガイドを読む

json

 

スクレイピングテンプレート

ライブデータを抽出するもう一つの方法は、前回の記事で行ったように、スクレイピングテンプレートを使うことです。これは、コーディングができない人向けの一番簡単なソリューションです(詳細については、この動画をご覧ください)。最新のデータを取得するためにタスクスケジューラを設定できます。これが私が収集したデータで、自由にお使いください。

 

 

Tableauでデータを可視化する

膨大な量のデータを取得したら、Tableauにアップロードできます。まず省/市をドロップフィールドにドラッグするだけで、マップレイヤーを作成します。その後、時系列を追加して値を蓄積し、各省のデータトレンドを把握します。湖北省のデータ傾向に興味があるので、湖北省を引き出します。マップは、1月22日からの過去20日間のコロナウイルスの広がりを示しています。2月11日まで、湖北だけで確認された感染者数は33,366人に達しました。

ウイルス爆発

湖北以外にも、今回のウイルスは広東、浙江、湖南、河南にも大きな影響を与えていることがわかります。

報告された症例

湖北省から報告された症例は、他のすべての症例を合わせたものよりも大幅に多いから、グループを作成し、全てのデータを湖北省とその他の地域2つのカテゴリに分けます。拡散のルートをよりよく理解するために、トレンドラインも追加し、現在の状況を分析します。

湖北と他の地域の両方がトレンドラインの下に滑り込み始め、それは確認された症例の減少傾向を示しています。ただし、死亡者数は改善傾向を示していなく、数字は依然としてトレンドラインを上回っています。

確認された症例

死亡者数

幸いに、湖北省以外の地域の治癒率は、トレンドラインの上に上昇していて、改善傾向を示します。上でより多くの場所が上昇するため、明るいニュースのようです。人々は現在、感染予防などに迅速な行動を取っているため、治癒率は増加し続けると思われます。

治癒率

 

最後の感想

ウイルスの拡散ルートを全体的に理解するため、今回はアニメーションを作成しました。データを視覚化すると、分析がはるかに簡単になります。ですが、データ分析の最大の課題はデータ収集です。私もたくさんの時間を面倒なデータ収集作業に費やし、多くの場合、データ形式を手動で修復する必要もあります。今、Webスクレイピングツールを利用して、作業の効率を大幅に高めることができることがわかりました。ただし、Webサイトを過度にスクレイピングしたり、収集したデータを濫用したりすることはお勧めしません。

 

注:この記事はTowards Data Scienceで配信したものを加筆修正したものです。(オリジナルの記事を読む

データ分析がどのように新型コロナウイルスの真実を明らかにするのか?

コロナウイルス

https://www.chappatte.com/en/

2019年12月以降、中国湖北省武漢市を中心に新型コロナウイルス(2019-nCoV)が発生し、短期間で世界に広まっています。日本国内では2020年1月15日に武漢市に渡航歴のある肺炎患者からこのウイルスが検出されており、今までは「ウイルス感染者、国内で500人超す」との報道がありました。

日本国内の感染者の急増で、多くの人々を不安に陥れているでしょう。特に、新型コロナウイルスに関する様々な噂や偽情報がインターネットやSNS等での拡散が続いていて、本当かどうかを分からなくて怖がている人もたくさんいます。

真偽が明らかではないため、噂が急速に広まり、最終的には「事実」になるかもしれません。ですから、公式および非公式の両方のソースからデータを収集し、透明なデータソースを作り、情報を共有し、真実を明らかにする必要があります。この記事の目的は、主要な公式ソースからデータを収集し、データの信頼性と透明性を高めることです。

 

 

公式ソースからデータを収集する

各Webサイトからデータをスクレイピングするために、今回はWebスクレイピングツールを利用して、スクレーパーを作成する手間を省きます。多くのオプションがありますが、Octoparseが最適だと思います。Octoparseは最近、中国保健省のデータベースからライブデータを抽出するためのスクレイピングテンプレートを作成しました。これは非常に簡単で、ほとんどのスクレイピングツールが必要とするタスクを設定する必要さえないので、誰でもデータを取得できます。

スクレイピングしたデータ 

 

 

データ分析

1月22日から2月4日までのデータを収集しました。データは、感染者数が増え続けており、減少傾向がないを示しています。しかし、感染疑い例の数は着実に減少しており、感染が確認された人に変わったため、感染疑いのプール全体が縮小していることを示しています。

感染疑い例

しかし、一部の人は、死亡者数が少し変わっていることを発見しました。私はデータを抽出して少し調べました。データによると、湖北省の死亡率は2.7%であり、中国の他の地域では0.19%です。つまり、湖北省の死亡率は他の地域の15倍です。

この場合、このような大きな不一致につながる可能性のある2つの仮定を引き出します。

 

仮定1:中国政府は実際の感染者数を隠蔽している

反駁:この仮定が正しい場合、実際の感染者数は、死亡者数を0.19%で割った値であり、これは288,947人に相当します。結果は、ウイルスがどの程度伝染する可能性があるかを測定するために使用されるメトリックであるR0(感染の再現数)と矛盾しています。ほとんどの研究[Maclntyre、2020]では、この感染性のR0は2〜2.5であり、季節性インフルエンザよりも少し高いことが示されています。その結果、新型コロナウイルスがあまりにも伝染しにくくなり、1か月もしないうちに約300,000人に感染する可能性は低いです。

from New York Times

それでは、このような高い死亡率を引き起こす要因は何でしょうか? 

 

仮定2:医療資源の足りないため、治療に難渋している

このは陳述より理にかなっています。医療用品、病院のベッド、医師・看護師・介護補助者などの人員不足は、自宅での自己検疫や自己隔離以外に選択の余地のない人々を残すことになります。また、不適切な自己治療は病気を悪化させる可能性もあります。さらに、新型コロナウイルスは、適切な治療が間に合わないことは言うまでもなく、既存の健康上の問題がある高齢者にとって致命的です。新型コロナウイルスの感染拡大に伴い、中国だけでなく、日本やアメリカでもマスク、アルコール消毒液などウィルス予防の用品は、店頭での売り切れ状態が出始めています。 

 

 

記事報道を取集する

Octoparseを使って、多数のメディアチャンネルからの発生以来のニュース記事も収集しました。Octoparseを使っていない場合は、これらの動画は役立つかもしれません。いくつかのニュースメディア間の違いを比較するために、ウォールストリートジャーナル、ニューヨークタイムズ、およびロイターから検索用語「コロナウイルス」で検索したの記事をスクレイピングしました。

ウォールストリートジャーナルのデータ

多くのニュース記事では、感染拡散の重大度に重点を置き、感染疑い者数や治癒者数などの他の指標を無視しています。このような不完全な物語は、中国政府だけでなく病気自体についても誤った印象を与えます。その結果、他の人が咳をしたり、風邪をひいたり、ほかの国の人と握手をしたりすると、怖がりになっています。

ウォールストリートジャーナルでWalter Meadによって書かれた「China Is the Real Sick Man of Asia」というニュース記事を見ました。タイトルが非常に外国人嫌いであるにもかかわらず、彼の記事には偽情報が何ヶ所もあります。 彼は、「新型コロナウイルスがどれほど危険かはわかりません。中国当局がまだ真実を隠そうとしている兆候があります。」と書きました。 記事の公開日に、WTOはすでにR0が約2であり、致死率が3%未満であり、季節性インフルエンザに近いことを発見しました。さらに、中国政府が何かを隠そうとしたことを証明する証拠はありません。実際、中国政府のWEBサイトのオープンソースデータベースから取得したデータは、WHO、CDC、ECDE、NHC、DXYのデータと一致していました。 

 

 

まとめ

新型コロナウイルスに関する情報が錯綜する中においても、不確実な情報や噂などに惑わされずに、信頼できる情報元で情報を得るようにしてください。また、風邪や季節性インフルエンザが発生しやすい時期であるため、マスクの着用や咳エチケット、手洗いなど感染予防に取り組んで、出来るだけ外出を控えてくださいね!

 

 

注:この記事はTowards Data Scienceで配信したものを加筆修正したものです。(オリジナルの記事を読む

初心者向け:未経験からデータアナリストになるには?

ビッグデータ時代の到来に伴い、さまざまな領域でビッグデータの活用が進んでいて、データアナリストなどの人材の需要はますます高まってきています。Indeed.comによると、この職業の成長率が4,000%以上に達しました。この記事では、未経験からでもデータアナリストを目指す方法を解説します。

 

データアナリストとは?

データアナリストとは、データ分析を行う専門家のことです。データ分析は、あらゆる業界の基本的な部分です。そのため、データアナリストはさまざまな業界で幅広いキャリアパスを持っています。

キャリアパス

 

 

以下のような業界では、データアナリストに大きな需要があります。

リサーチ・市場調査アナリスト:現在の市場の状況を分析する調査・リサーチを実施します。消費行動、購買習慣などを収集し、新製品の需要をに予測し、販売戦略の向上を実現できるようにします。エントリーレベルの給与は450万円~650万円です。

 

財務アナリスト:財務データを操作して、モデルと予測を提供します。銀行投資などの投資産業は、投資機会を探求するためにデータに大きく依存しています。エントリーレベルの給与は550万円~750万円です。

 

ビジネスアナリスト:データを実用的なビジネス洞察に変えます。 Excel、Power BI、およびSQLの広範なスキルが必要です。エントリーレベルの給与は500万円~700万円です。

 

 

入門するにはどのようなスキルが必要ですか?

 

  1. SQL構造化照会言語は、データベースにアクセス、管理、操作するように設計されているデータベース言語の一つです。これは、データアナリストに求められる基本スキルです。
  2. Excel軽量で迅速なデータ分析には、マクロやVBAのVLOOKUP関数などの高度なExcelスキルが必要です。
  3. 統計的プログラミング:R、MATLAB、SAAなどの統計言語によって、大きなデータセットを探索し、理解を深めるために派手なグラフで表示する必要もあります。
  4. データ可視化:結果を提示および説明する能力も不可欠です。Power BIやTableauなどのツールは、標準の分析ツールと見なされます。

 

これらすべてに加えて、分析を行われるようにするデータプールを作成する必要がありますね。

Webスクレイピング(Webデータ収集)は分析スキルの一種ではなく、それを補足するものです。ほとんどの場合、データアナリストは、データを見つけてきれいに抽出するより良い方法を知らない限り、乱雑なデータに対処しなければなりません。幸いなことに、OctoparseのようなWebスクレイピングツールを利用して簡単に始めます。他にも多くのオプションがありますので、この記事をご参考ください。

 

例を挙げましょう!

WebスクレイピングExcel、Tableauを併用してデータ分析を行う例を見てみましょう。ここでの最終目標は、国の一人当たりGDPとそのインターネットユーザーの成長率との関係を調べることです。



データを取得する

これを行うには、2種類のデータが必要です。

 

  1. 一人当たりGDP (https://www.cia.gov/library/publications/the-world-factbook/)
  2. インターネットユーザーの成長率 ( https://www.internetworldstats.com/top20.htm)

 

まず、Octoparseを使って、データ抽出のクローラーを設定します。Octoparseなら、簡単なクリックしてデータを抽出でき、プログラミングできない人にとても優しいです。使い方が分からい方はOctoparseの動画チュートリアルを参照することをお勧めします。

 これは、作ったワークフローです。クローラーの設定が完了したら、「抽出開始」ボタンをクリックするだけで、Octoparseは魔法のように動作し、データを取得してくれます。

 ワークフロー

 

 

この抽出のために、組み込みの正規表現ツールを使用して少し編集しました。Javascriptなどで正規表現モデルを作成する必要なく、時間を大幅に節約できますね。 

正規表現ツール

 

 

データをスクレイピングしてスプレッドシートに入れました。興味があれば、ご参考ください。

 

Excelで値を検索する

次に、 INDEX と MATCH 関数を組み合わせて、2つスプレッドシートから検索値と一致するデータ(インターネットユーザーの成長率と1人あたりのGDP)を取得する必要があります。

 

=INDEX(対象範囲, MATCH(検索値, 検索範囲, 0))

 

まず、MATCH関数を使って、シート2から「Country」を検索し、シート2から探すものを返します。

 次、INDEX関数を使って位置を検索し、シート1から対応する値を返します。

シート

 

Data1とData 2は、シート1から名前を付けた検索範囲です。

 データシート

 

この式を使って、使用して、MATCH関数から返された国の位置(DATA2)を検索し、GDP_per_capita(DATA1)から対応する値を返します。

 

データ可視化

値のマッチングが完了すると、データを可視化することができます。Tableauは簡単に手に入れることができます。目的の値をダッシュボードにドラッグするだけです。 次のチャートのように見えます。

分析結果

 

 

 

次の結論が得られます:

国のインターネット成長率と一人当たりGDPの間には、強い負の相関関係があります。 つまり、インターネットユーザーの増加が速いほど、一人当たりGDPが低くなる可能性があります。GDPの高い国は通常より発展しているため、成長する余地が限られている、それも理にかなっています。一方、GDPの低い国には、インターネットインフラストラクチャを拡大する可能性が十分にあります。したがって、インターネット全体の成長率は先進国よりも速く増加します。

 

 

まとめ

データアナリストになりたいなら、きちんとキャリアパスを計画することをお勧めします。上記のデータ分析に求められる基本的なスキルを磨きながら、データ収集と処理の能力も上げるほうがいいと思います。データ分析の効率を大幅に向上させるため、履歴書や面接でアピールできる「特別な売り」になるかもしれません。それに、 オンラインで利用可能な豊富な無料のリソースがあり、最大限活用してください。

 

 

元記事:https://www.octoparse.jp/blog/how-to-become-a-data-analyst/

Web担当者として身につけるべきスキルとは?

明けましておめでとうございます!ついに2020年が始まりました!皆さん、お正月はいかがお過ごしでしょうか?新年の始まりにあたり、今年の目標/やりたいことを立てる方が多いと思います。Web担当者としての私、2020に何かの新しいWebスキルを勉強するのか、いろいろ考えてみました。

グーグルしたところ、まだ身につけていないスキルはたくさんあります。今日はWeb担当者として身につけるべきWebスキルをまとめて、皆さんに紹介したいと思います。

 

Web担当者とは?

そもそもWeb担当者はどんな人でしょうか?Web担当者とは、Webマーケター、Webマーケティング担当者とも呼ばれ、Webサイトへの集客に関する業務を担当します。Webサイトの登録者数やPVなどの増加を目的として、様々な施策を行い、アクセス解析の結果を分析し、施策の検証・改善を行います。

 

 

Web担当者の仕事内容は?

Web担当者はどんな仕事をするのでしょうか?まずはある求人情報に掲載した仕事内容を見てみましょう。

 Web担当者の仕事内容

いかがでしょうか?Web制作、SEO対策、リサーチ、分析、企画提案などたくさんありますね。私自身もそれらの仕事をしています。もちろん、企業の大小や業種によって、仕事内容は変わりますが、必要とされる事はあります。

など、これらの手法を通じて、集客の目的を達成します。

 

 

Web担当者に必要なスキル

 

1.情報収集・分析のスキル

新しい製品・サービスを立ち上げるとき、必ず市場分析、競合分析を行います。分析を行う前、たくさんの情報を収集しなければなりません。情報収集を効率的に進めるために、情報収集力は必須なスキルです。それに、収集した情報を整理して、目的に応じて分析、解析できるスキルを身につけておくのも重要です。

利用可能リソース:

Web情報を収集するには、Octoparseというスクレイピングツールがオススメです。プログラミングする必要がなく、クリックするだけで素早くデータを抽出できます。

スクレイピングツールにオススメの10選

データ分析・可視化なら、Tableauがオススメです。Tableauは非常に強力で柔軟な分析プラットフォームで、プログラミングなどの専門知識・スキル不要で複数のユーザのコラボレーションも可能です。

データ分析にオススメのツール31選

 

 

 

2.サイト企画/制作/デザイン/更新のスキル

自社で新しいサービスを行なう場合、新しくホームページを作らなければいけないことがあります。以前作ったホームページを更新や修正などことも時々ありますね。ホームページをイチから作るには、企画書作成、レイアウト作成、ドメイン・サーバー準備、サイトマップ作成など、様々なノウハウや作業が必要になります。可能であれば、プログ(THML・CSSの知識)やデザインのスキルを身につけておきましょう。

利用可能リソース:

今では、Instapage、WiXやStrikinglyなど、LPを作れるツールがたくさんあります。テンプレートが豊富で、PowerPointのように簡単でおしゃれなページを作れます。

 

 

3.SEO対策のスキル

新しいサイトを立ち上げた後、検索順位を上げるために、サイトのリンクやコンテンツを最適化しなければなりません。それはSEO対策です。SEOを行うことで、検索結果で上位表示できれば、より多くの検索ユーザーにリーチすることができます。SEOでは、キーワード、被リンク、コンテンツが重要で、最適化するのに一定の需要がずっと続くことになります。ですから、成果を出すのは時間かかるし、難しいことです。

利用可能なリソース:

Moz、SEMrush、AhrefsなどSEOに役に立つツールもたくさんあります。それらのツールを利用して、キーワード、リンクの分析を簡単にすることができます。

 

 

4.良質なコンテンツを書くスキル

質が良いコンテンツとは、検索ユーザーが喜び記事のことです。さっき言ったSEO対策では、コンテンツ作りは重要です。コンテンツマーケティングの一環として、多くの企業はブロクを立ち上げました。ですから、相手が読みやすく、分かりやすい記事を書くノウハウが必要になります。

利用可能なリソース:

WEB上では多くのノウハウ記事がありますので、ここでは一本をオススメします。

良質なコンテンツとは:良い記事を書くための14のポイント

 

 

 

5.SNS運用のスキル

SNSの普及に従って、SNSマーケティングを行う企業も増えました。多くの人に自社の製品やサービスを見てもらえる機会を増加するために、どれだけ拡散できるかが重要です。ですからフォロワー、「いいね」や「シェア」を増やすのもWeb担当者の仕事となります。そのため、FacebookTwitterInstagramなど、それぞれサービスの特徴とできることを把握する上で、ふさわしいコンテンツを配信することも重要です。

利用可能なリソース:

SNSマーケティング活動を行う際に、SNS分析はとても有用です。より正確でタイムリーな情報を入手するには、ツールを活用するのが効率的です。無料ツールなら、HootsuiteとSocial Mentionがオススメです。

 

 

まとめ

いかがでしたか?以上は、私自身の仕事を元にして、仕事内容とそれに必要なスキルと利用可能なソースの紹介でした。Web担当者になった1年以上の私はスキル不足を感じた時が多いです。今年もWeb担当者の必要なスキルの向上に日々努力をしたいと思います。もしその中では、皆さんが身につけたいスキルがあれば嬉しいです。

 

元記事:

Web担当者として身につけるべきスキルとは? | Octoparse