* 本セミナーは開催済みです。再開催のご要望があれば、お知らせください。
CMCリサーチセミナー
開催日時:2018年5月31日(木)10:30~16:30
会 場:ちよだプラットフォームスクウェア 5F 503会議室 → 会場へのアクセス
〒101-0054 東京都千代田区神田錦町3-21
受 講 料:54,000円(税込) ※ 昼食、資料代含
* メルマガ登録者は 48,000円(税込)
* アカデミック価格は 15,000円(税込)
パンフレット
注:開催1週間前頃にサンプルプログラムのインストール手順資料をお知らせします。ノートPCを持参のうえご参加ください。
★ アカデミック価格:学校教育法にて規定された国、地方公共団体、および学校法人格を有する大学、大学院の教員、学生に限ります。
★ 【メルマガ会員特典】2 名以上同時申込で申込者全員メルマガ会員登録をしていただいた場合、2人目以降はメルマガ価格の半額です。
★ セミナーお申込み後のキャンセルは基本的にお受けしておりません。ご都合により出席できなくなった場合は代理の方がご出席ください。
講 師
清野克行 氏 サイバースペース代表
【講師経歴】
慶應義塾大学工学部電子物理専攻卒。情報処理学会会員。日本IBM、日本HP で、製造・装置業を対象とした業務系・基幹業務系システムのSE/マーケティングや、分散アプリケーションによる社内業務システム開発などに携わる。
【活動内容】
サイバースペース代表。クラウドやRIA関連のソフト開発/書籍執筆/セミナー講師/コンサルティングなどを行なっている。
セミナーの趣旨
今やAI技術の主流となっているディープラーニングでは、ニューロンの働きを疑似的に多重化したニューラルネットワークを利用しています。本セミナーでは、AI技術の概要から始めてディープラーニングとはどのようなものなのか、そしてGoogle 社のディ
ープラーニング(深層学習)フレームワークであるTensorFlowの機能および使い方に解説を進めます。
その後、TensorFlowの稼働環境を構築して、稼働環境上でのサンプル実行とサンプル内容の解説へと進めていき、TensorFlowのディープラーニングを実現するコード記述スタイルが理解できるようにしていきます。
セミナー対象者
① ニューラルネットワークによるディープラーニングについて、理論およびアプローチ方式について知りたい方
② GoogleのTensorFlowでディープラーニングのプログラミングを行ってみたい方
③ TensorFlowを使用したディープラーニングプログラミングでどのような応用事例があるのか知りたい方
④ 数値予測、画像認識、音声認識、自然言語処理などの開発に興味がある方および仕事で関係する方
⑤ AIビジネスに興味がある方
セミナーで得られる知識
① ディープラーニングについての理論の理解
② TensorFlowを使用した、Python言語によるプログラム記述
③ TensorFlowの応用例
④ AIビジネスの概要
プログラム
※ 適宜休憩が入ります。
1.1 医療分野
1.2 ビジネス分野
1.3 AIアシスタント・システム
1.4 シンギュラリティ(技術的特異点)の先にある2045年の未来とは?
2 Windows10上にTensorFlowの実行環境構築
2.1 Anacondaのインストール
2.2 Anacondaで仮想環境作成
2.3 JupyterNotebookをインストール
2.4 TensorFlowのインストール
3 Python言語の基礎
3.1 算術演算
3.2 データ型
3.3 変数
3.4 リスト(List)
3.5 Dictionary
3.6 Boolean
3.7 if文
3.8 for文
3.9 関数
3.10 クラス
3.11 コンストラクタ
3.12 Numpy(外部ライブラリ)
3.13 配列と配列の計算
3.14 ブロードキャスト
4 ディープラーニング
4.1 ディープラーニングとは
4.2 ディープラーニング少史
4.3 ディープラーニングの実用例
4.4 ディープラーニングのこれから
5 TensorFlow
5.1 TensorFlowとは
5.2 TensorFlowの普及率は他を圧倒している
5.3 TensorFLowが利用可能な用途
5.4 TensorFlowの利点と欠点
6 パーセプトロン
6.1 単純パーセプトロン
6.2 単純パーセプトロンの限界
6.3 多層パーセプトロン
6.4 線形関数と非線形関数
7 ニューラルネットワーク
7.1 パーセプトロンからニューラルネットワークへ
7.2 活性化関数
1) シグモイド関数
2) ステップ関数
3) ランプ関数ReLU(RectifiedlinearUnit)
7.3 多次元配列の計算
7.4 3層ニューラルネットワークの実装(パーセプトロン)
1) 行列の内積(ドット積)
2) 入力層から第1層への信号の伝達
3) 第1層から第2層への信号の伝達
4) 第2層から出力層への信号の伝達
5) 出力層の設計
① 恒等関数
② ソフトマックス関数
6) 手書き文字認識
7.5 ロジステック回帰
7.6 One-Hot-Vector
7.7 バックプロパゲーション
7.8 1つのニューロン層の場合
7.9 2層からなるグラフのプログラム
7.10 3層からなるグラフのプログラム
7.11 パラメーター(重みとバイアス)の最適化方法
7.12 ニューラルネットワークのパラメータ最適化
7.13 相関と回帰
7.14 線形回帰
7.15 損失関数(LossFunction)
7.16 Gradientdescent勾配降下法
(1)サンプル線形回帰を使用
(2)サンプルシグモイド関数を使用
8 誤差逆伝播法
8.1 計算グラフ
8.2 連鎖率
8.3 逆伝播
8.4 レイヤの実装
(1) 単純なレイヤ
(2) 活性化関数レイヤ
(3) Affine/Softmaxレイヤ
8.5 誤差逆誤差伝搬法の実装
9 畳み込みニューラルネットワーク
CNN=ConvolutionalNeuralNetworks
9.1 全体構造
9.2 畳み込み層
9.3 プーリング層
9.4 Convolution/Poolingレイヤの実装
9.5 CNNの実装と可視化
9.6 代表的なCNNLeNetとAlexNet