ちょうどさっきG検定を受験しました。
試験自体は家で受けられるため、13時から試験開始。
とりあえず時間との勝負なので2時間超集中しました。
ってことで今回は、G検定受験感想と対策方法なんかを書いていきます。
この記事書いてる時、まだ試験結果出てないので参考までに。
2019/7/14追記:試験は合格していました。これで資格12個目。
- 1. G検定とは
- 2. 参考サイト
- 3. G検定を受験してみた感想
- 4. 対策方法
- 5. 試験問題概要
- 5.1. モラベックのパラドックス
- 5.2. ローブナー・コンテスト
- 5.3. Googleフォトの問題点
- 5.4. 2017年10月米国の法改正
- 5.5. LAWS(自立型致死兵器)
- 5.6. XAI(説明可能AI)
- 5.7. Partnership on AI
- 5.8. アフィン変換
- 5.9. ベイズの定理
- 5.10. PyTorch
- 5.11. DQNはどこが開発したか?
- 5.12. モンテカルロ法は強化学習?
- 5.13. ステップワイズ法
- 5.14. Tanh関数
- 5.15. ファインチューニング
- 5.16. GAN
- 5.17. t-SNE
- 5.18. OCR
- 5.19. 分散表現
- 5.20. コグニティブ・コンピューティング
- 5.21. センチメント分析
- 5.22. キャプション生成
- 5.23. AlphaGo
- 5.24. Word2Vecの種類
- 5.25. BERT
- 5.26. バイトの単位
- 5.27. 汎化誤差の種類
- 5.28. 局所コントラスト正規化
- 5.29. OpenCV
- 5.30. bag-of-words
- 5.31. TF-IDF
- 5.32. TensorFlow
- 5.33. Keras
- 5.34. Chainer
- 5.35. イテレーション
- 5.36. エポック
- 5.37. グレースケール化
- 5.38. 平滑化
- 5.39. ヒストグラム平均
- 5.40. 分類問題
- 6. その他
- 7. まとめ
G検定とは
G検定とは、「ディープラーニングを事業に活かすための知識を有しているかを検定する」試験だそうです。
E検定というのもありますが、G検定はエンジニアでない人も受験する試験であり、ディープラーニング全般が理解できているかが問われる試験です。
受験料 | 一般 12,960円 (税込) 学生 5,400円 (税込) |
---|---|
問題数 | 226問 |
合格ライン | 非公開のため不明 |
参考サイト
ココ見てね。
URL:「https://www.jdla.org/business/certificate/」
G検定を受験してみた感想
巷ではこんなことが言われています。
・公式テキストだけでは絶対に合格できない
・時間に追われるので、悠長にググってる暇はない
公式テキストだけでは絶対に合格できない
そんなことないです。
が、確かにテキストに載っていない問題もそれなりに出題されます。
僕は黒本1冊を3周やって、模擬試験を2回ほどやりましたが、基本的な知識はこれで事足ります。
AI白書をしっかり読んだ方がいいというサイトも多いですが、それはどうなんだろうと思います。
どちらかというと、最近の時事的な問題が多いので、そこは勉強するか、諦めて試験中にググるしかありません。
時間に追われるので、悠長にググってる暇はない
これはその通りです。
226問を2時間で解く必要があるので、大体30秒で1問解くペースです。
なので、即答できるものは即答し、分からない問題はチェックをつけておいて、あとで調べるのが得策です。
※注意してもらいたいのが、チェックを付けた問題はあとで見返すとしても時間が来たら終わりなので、適当に回答をしておくことをおススメします。
試験ではチェックを付けた問題は分かるようになっているのと、未回答も分かるようになっているのでここは安心できます。
対策方法
①まずテキストを買って3回やる
まずテキストを買ってください。
試験に合格するためには、試験問題をある程度網羅している本を購入しましょう。
AI白書やら他の本を勧めている人もいますが、そんなものは時間があればやればいいです。
試験に合格したければ、まずは試験問題対策本で基礎を押さえちゃいましょう。
僕の感覚ですが、色々な本に手を出すより、1冊の本を3回やった方が絶対に良いです。
②模擬試験を2回はやる
模擬試験はここです。
URL:「http://study-ai.com/generalist/」
模擬試験は本試験とほぼ同じ問題数です。試験内容もそんなに変わりません。
模擬試験と全く同じ問題も出題されていたので、やる価値は十分あります。
また、模擬試験では見たことのない単語も出てくるので、そういったものは覚えるも良し、メモしておいて試験中すぐ探せるようにするも良しです。
試験問題概要
試験問題を載せることはできません。
が、出題された単語などを共有することはできます。
ということで、僕が試験中ググったものと、模擬試験で分からなかった単語などを殴り書きしていきます。
モラベックのパラドックス
テキストにも載っているレベルの単語ですが、ノーフリーランチとかとごっちゃになりがちですよね。ちなみに、バーニーおじさんとかも出題されていました。
モラベックのパラドックスは、「知能において大人を任すことはロボットからすれば簡単なことだが、運動等においては1歳児の運動スキルを身に着けることさえ難しく、場合によっては不可能である」というものです。
ローブナー・コンテスト
チューリング・テストは毎年コンテストを行っていますが、このコンテストの名前は「ローブナー・コンテスト」と呼ばれています。
ちなみに、チューリング・テストの合格者には「ローブナー賞」が贈呈されます。
Googleフォトの問題点
Googleフォトが2015年に起こした問題が問われました。
Googleフォトが起こした問題とは、「黒人をゴリラと認識してタグ付けしてしまったこと」です。
2017年10月米国の法改正
公道での無人自動車走行を認可しました。
こういった法改正に関する問題は結構出るので押さえておきましょう。
LAWS(自立型致死兵器)
言葉から推測できますが、「自立して人を殺傷する能力を持つロボット」のことです。
重要なのは、現在LAWSは存在しないこと、存在しないが議論はされていること、存在しないが故に議論が難しいこと、です。
XAI(説明可能AI)
「高精度の予測」と「予測に至る解釈の提示」という両立が難しいとされてきたものを解決したAIです。
米国国防高等研究計画局(DARPA)も開発に取り組んでいます。
Partnership on AI
Facebook、Amazon、Alphabet(Google)、IBM、Microsoftの5社を立ち上げメンバーとした非営利組織です。
アフィン変換
線形変換(拡大縮小、剪断、回転)、平行移動により再現されます。
ベイズの定理
公式が出題されました。
Wikiに載っているので、なんとなくでも頭に入れておきましょう。
URL:「https://ja.wikipedia.org/wiki/%E3%83%99%E3%82%A4%E3%82%BA%E3%81%AE%E5%AE%9A%E7%90%86」
PyTorch
FaceBookのAIフレームワークです。
FaceBookって表示された時に即答できるようにしておきましょう。
DQNはどこが開発したか?
Googleの子会社ディープマインドです。
モンテカルロ法は強化学習?
強化学習です。
強化学習には何があるかは押さえておきましょう。
ステップワイズ法
回帰モデルの説明変数を取捨選択する手法です。
Tanh関数
シグモイド関数と同様に連続関数ですが、異なる点が2点あります。
①出力範囲が「-1~1」で、中心点が「0」であること
②微分値の最大が「1」であるため、シグモイド関数微分値の最大値0.25に比べ大きいこと
ファインチューニング
既存のモデルの一部を再利用して新しいモデルを構築する手法です。
GAN
生成側は「Generator」と呼ばれ、識別側は「Discriminator」と呼びます。
t-SNE
高次元データの可視化に適している次元削減アルゴリズムです。
OCR
手書きや印刷された文字を、イメージスキャナやデジタルカメラによって読み取り、コンピュータが利用できるデジタルの文字コードに変換する技術です。
分散表現
単語を高次元の実数ベクトルで表現する技術です。
コグニティブ・コンピューティング
ある事象についてコンピュータが自ら考え、学習し、自らの答えを導き出すシステムです。
センチメント分析
文章の意見がポジティブか、ネガティブか、ニュートラルかを、一連の単語から判断することです。
キャプション生成
画像を入力として与えると、出力として画像の内容を説明する短い文章を生成することです。
AlphaGo
ディープラーニングによって開発されたコンピュータ囲碁プログラムであり、人間のプロ囲碁棋士を互先(ハンディキャップなし)で破った初のコンピュータ囲碁プログラムです。
Word2Vecの種類
①Countinuous Bag-of-Wordsモデル(CBOW)
②Skip-gramモデル
BERT
様々な自然言語処理に対して汎用的に使える分散表現を計算するものです。
最近話題らしいです。
バイトの単位
バイトの大きさの順番が問われました。なぜ?w
ビット<バイト<キロバイト<メガバイト<ギガバイト<テラバイト<ペタバイト<エクサバイト<ゼタバイト<ヨタバイト
汎化誤差の種類
・バイアス:予測モデルが単純すぎることが原因で発生する。
・バリアンス:予測モデルが複雑すぎることが原因で発生する。
・ノイズ:どうやっても減らすことができない誤差。
局所コントラスト正規化
減算正規化と除算正規化の処理を行います。
OpenCV
画像処理に特化したライブラリです。
bag-of-words
文章に単語が含まれているかどうかを考えてテキストデータを数値化します。
TF-IDF
文章に含まれる単語の重要度を特徴量とします。
TensorFlow
Google社提供のフレームワークです。
Keras
TensorFlowのラッパーとして機能します。
Chainer
国内企業であるPreferredNetworksで開発されました。
イテレーション
重みが更新された回数です。
エポック
訓練データを何回繰り返し学習したかを表す単位です。
グレースケール化
カラー画像を白黒画像に変換して計算量を削減します。
平滑化
細かいノイズの影響を除去します。
ヒストグラム平均
画素ごとの明るさをスケーリングします。
分類問題
・再現率:偽陽性(False Positive, FP)を減らすことを重視する場合
・適合率:偽陰性(False Negative, FN)を減らすことを重視する場合
その他
試験ですが、「自動運転に関する問題」と「自然言語処理の解析技術」がかなり出題されました。
自動運転に関する問題
自動運転に関しては、「レベル3の場合は何がどこまでできるのか」「レベル5の場合に期待されることは何か」みたいな感じで出題されます。
それぞれのレベルで期待されることをざっくりでいいので押さえておきましょう。
自然言語処理の解析技術
形態素解析、構文解析、照応解析、談話解析など、それぞれの意味を問われました。
この辺りはすべて覚えるのはきついので、本とかですぐに参照できるように準備しておくのが無難です。
まとめ
G検定は思っている以上に難しい試験でした。
家でできるし、試験中調べられるから大丈夫と考えている人は多分落ちます。
しっかりと勉強した上で、頭に入らないことは試験中に参照できるように準備する、というのがベストだと思います。
では、さいなら。