Deep Learningキーワード

なんかE検定対策みたいでいや!!

 

姉妹ブログ

https://qiita.com/Pen_Than_Sword/items/e2da1eb496cf38343dd1

 

ビジネスの世界でどれだけAI活用が進むか

https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-ai-frontier-applications-and-value-of-deep-learning

 

◎ さまざまな分野と最先端の事例

・数値・表形式系

・画像/映像系

・文章/言語系

・音声/音楽系

・その他の応用

3つのカテゴリに分けて、見ていきます。

・認識/推論

・生成

・連続した行動

Papers With Code-Browse thd State of thd Art in Machine Learning

https://paperswithcode.com/sota

 

世界初の汎用コンピュータの誕生

1946年 アメリカ ペンシルバニア大学 エニアック(ENIAC)

 

◎人口知能という言葉の誕生

1956年 アメリカ ダートマス会議 マーヴィン・ミンスキー

                      ジョン・マッカーシー

                                                      アレン・ニューウェル

                                                      ハーバード・サイモン

 

◎人口知能研究のブームと冬の時代

■第1次AIブーム(推論・探索の時代:1950年代後半~1960年代)

■第2次AIブーム(知識の時代:1950年代後半~1960年代)

■第3次AIブーム(機械学習・特徴表現学習の時代:2010年代~)

 

◎【第1次AIブーム】推論・探索の課題

・迷路

ハノイの塔

・プランニング

 -ロボットの行動計画

 -積み木 1970年 SHRDLU スタンフォード大学 テリー・ウィノグラード

モンテカルロ法

 

◎【第2次AIブーム】知識表現の課題

人工無能 

    1964年~1966年 ELIZA

エキスパートシステム

   1960年代 DENDRAL スタンフォード大学 エドワード・ファイゲンバウム

   1970年代 MYCIN

・知識獲得のボトルネック

・意味ネットワーク

オントロジー

・概念間の関係

オントロジーの構築

 

ディープラーニングへの変遷

・1958年 単純パーセプトロン アメリカ フランク・ローゼンブラッド

・1969年 単純パーセプトロンの限界:線形分離問題しか解けない

・1986年 単純パーセプトロンの限界の克服:多層+バックプロパゲーション

・2006年 自己符号化器(オートエンコーダ) カナダ トロント大学 ジェフリー・ヒントン

・2012年 ディープラーニング カナダ トロント大学 ジェフリー・ヒントン

 

◎シンギュラリティ

・未来学者、実業家 レイ・カーツワイル

・2029年 「人工知能が人間よりも賢くなる」・広義の意味

2045年 人口知能が十分に賢くなり、自分自身よりも賢い人呼応知能を作るようになった瞬間、無限の

 

ディープラーニングのアプローチ ~勾配消失問題の解決方法~

1.事前学習によるアプローチ・・・old style。こちらはオワコンです。

  -オートエンコーダ

  -積層オートエンコーダ

  -ファインチューニング

  -深層信念ネットワーク(deep belief networks)

2.事前学習なしのアプローチ・・・こっちが主流

  -活性化関数の工夫

 ディープラーニングを実現するには

・ハードウェアの進歩

・CPUとGPU

  -CPU(Central Processing Unit):様々な種類のタスクを順番にこなす

  ーGPU(Graphics Processing Unit):大規模な並列演算処理、主に画像処理

   *注)CPU・・・Numpy、GPU・・・Cupy

・GPGPU(General-Purpose computing on GPU)

  -画像以外に改良

  -ディープラーニング向けのGPU開発・・・NVIDIA

  -ディープラーニング実装用のライブラリのほぼ全てがNVIDIA社製をサポート

・TPU(Tensor Processing Unit)

  -Google社製:テンソル計算処理に特化

ディープラーニングのデータ量

  -学習・・・モデルがもつパラメータの最適化

  -CNN・・・AlexNet

  ー問題が複雑であるほど、必要なデータ量も増える

  ーデータ量の目安:バーニーおじさんのルール「モデルのパラメータ数の10倍のデータ数が必要」