日々、AI関連ツールの話題が尽きません。
ニュースやネット記事にも、新しいカタカナ用語がどんどん登場する。
これらの用語を体系的に知る方法はないかなと調べていて、『G検定』なるものを知りました。
人工知能についての知識・理解を問う検定試験だそう。
これを学べば、背景知識なども一気に学べるじゃないか、と公式テキストを入手したのです。
『ディープラーニングG検定公式テキスト』
(日本ディープラーニング協会 監修)
なお、先に書いておくと、受験そのものはあっという間に断念しました。
「何年のダートマス会議で何が議論されたか」みたいな情報をせっせと覚えることに意義を感じなかったのです(注:個人の感想です)。
ただ、公式テキストの内容自体はそこそこ興味深く、しばらく読んでいたのですが40ページくらいで手が止まりました。
人工知能の話が、「上司と新人の話」にしか思えなくなったからです。
[注意]本稿は、人工知能についての正しい知識を広めるためのものではないので、僕の理解に誤りがあればご容赦ください。
人工知能=会社の新人!?
・人工知能は、「知的な処理能力を有」し、「今後どんどん能力を発揮していく可能性を秘めて」いる。
・しかし、こちら(人間)の望む通りに動いてもらうためには「教育と誘導が必要」。
これ、会社の新人のことに他ならないんじゃないのか。
・人工知能(およびコンピュータ)=新人
・人間=上司
と置き換えながら、公式テキストを読んでいきました。
その中で、「上司の皆さんに参考になるかも」という部分をいくつかピックアップしてみました。
人工知能とディープラーニングの概要
「●」部分は公式テキストからの引用ですが、僕なりに意訳している箇所もあります。
「→」で自分なりのコメントも加えました。
●人間の一般常識は膨大で、形式的に記述するのは難しい。
人間の一般常識を全てコンピュータに取り込もうというプロジェクト(Cycプロジェクト)は、1984年にスタートして30年以上経った今でも続いている。
→一つの企業における文化や雰囲気といったものは、簡単に言語化(マニュアル化)できるものではないのかも。
●人工知能にただ出題しても解けないので、まず人間が「コンピュータが理解できる形に問題を変換する」ことが必要。
→上司としては、どう伝えるか?も役目の一つですね。
●いろんな人が好き勝手に記述すると、どれとどれが同じ意味なのか分からなくなる。
そのため、「言葉とその意味」「それらの関係性」を、「他の人とも共有できるように明確な仕様として定義して」おく。
→上司や先輩が、同じようなことを違う表現で指示を出したり、なんてことも起こりそうです。
●コンピュータは「記号」と「対象」を結びつけることができない(シンボルグラウンディング問題)。
実際に触った感覚や、落としたら壊れるといった経験も含めて、概念が作られる。
→言葉だけ聞くのではなく、実際に経験したり、お客さんの前でピリピリするのも大事。
●コンピュータは翻訳はできても、「意味」を理解していない。
人間が理解できるのは、一般常識や経験があるから。
しかし、それら人間が持つ一般常識をすべてコンピュータが扱うのは困難。
→作業ができることと、その意味を理解することは別、というのも納得感があります。
●人工知能の予測精度は大きく向上してきた。
例えば「将来、こうなるでしょう」は言えるようになった。しかし、「なぜか」という判断根拠を説明するのは苦手としている。
→人間は、行動するのに納得できる理由を求めますね。
ざっといくつかピックアップしただけですが、いかがでしょうか。
みなさんももう、「人工知能の話は、上司と新人の話」にしか思えなくなっていませんか。
機械学習=新人が自分で学習する仕組み
人工知能のプログラム自身が学習する仕組みのことを「機械学習」と呼ぶそうです。
機械学習にもいろいろな方法が考えられてきました。
●「ニューラルネットワーク=人間の神経回路を真似することで学習する方法」がある。
これは後年、「単純な問題しか解けない」と指摘され、研究は下火になった。
→一緒にいて、「ただ見て覚えろ」だけでは限界がある、ということでしょうか。
●機械学習においては、どのデータに注目すると予測が立つのか、といった意味のあるデータ(特微量)の選択が大事。
この選択は、人間が行う。
だから、機械学習の成果は、特微量の選択を担当する人間の経験と知識がモノを言った。
→上司も、「どんな課題をさせると部下が育つのか?」に頭を悩ませますね。
●機械学習の方法は3つにまとめられる。
1)教師あり学習
「こうすると→こうなる」といった題材を使って、結果となる最終データを”教師”として学習していく。
2)教師なし学習
「今あるデータを使って予測する」といった題材は最終データがないため、最初のデータそのものの構造・特徴を学習する。
3)強化学習
繰り返し試行錯誤のやりとりを通して学習していく。
そのためには、実行する行動の安全性を担保する仕組みを導入する必要がある。
→なんだか、すごく役立ちそうな話ではないかと感じます。
●機械学習の最大の敵は「過学習」。
一つ一つの要素に一生懸命になるあまり、全体の傾向がつかめず、予測がうまくできなくなっていくこと。
これを避けるためには、早めに終わりにする「早期終了」がシンプルで効果的。
→新人も、あまり意味のないことに時間を使っていたりするかも。
●人工知能ができたかどうかを判定する方法に、「チューリングテスト」がある。
別の場所にいる人間がコンピュータと会話し、相手がコンピュータだと見抜けなければ、コンピュータには知識があるとするもの。
→第三者の力を借りる、という方法は面白いです。
この機械学習の研究はどんどん進んでおり、その一つがディープラーニング(深層学習)というもの。
ただ、このあたりは正直、僕の理解を超えていました。
人工知能とは、新人ではなく「相棒」かもしれない
ここまで、「上司と新入社員」として話を進めてきましたが、実際にはもっと幅広い関係にも当てはまるかもしれません。
例えば、クライアントと外注業者。
例えば、監督とカメラマン。
例えば、指揮者と楽団。
どんな状況であろうと、互いの関係性に<学習>は欠かせません。
依頼したり指示したりする側は、どう伝えれば最大のリターンを得られるのか。
指示される側は、クライアントの好み、監督の言葉遣い、指揮者の癖を知る必要もあります。
多くのSF映画にて、今後AIはこう使われるんじゃないか、という存在を見かけます。
『スターウォーズ』
いろんな星の通訳を務め、自分の意思で行動することもあるが、ボスに忠実。
『インターステラー』
計算したり、人間が行けない場所の調査をしたり、重いものを運んだり。一人何役も務めるが、人間の指示が必要。
『アイアンマン』
人間が思考したり比較したり試したりしやすいよう、視覚的にもサポートしてくれる。やはり人間の指示が必要。
『her/世界でひとつの彼女』
物理的な体を持たず、PCやモバイル端末を介してコミュニケーションをする存在。やりとりが深まるほど、相手も最適化されていく。
人工知能は、特定の人間のことを深く知っていくことで、「単なる作業者」から「いい相棒」に育っていくのかもしれません。
まとめ
感想としては総じて、「人間が決めなきゃいけないことがまだまだ多いな」ということでした。
僕が面白いと思ったのは「フレーム問題」と呼ばれるもの。
ある実験で、ロボットに次の3つのことが起こるそうです。
A:何も考えずに行動して爆発
B:考えすぎて時間切れで爆発
C:やり方を考えすぎて動けなくなって爆発
どれも、実際に人間界でも起こりそう。
やはり、的確に指示を出すのは大変であり、効果的な指導には準備が必要になるんですね。
時には上司だって、爆発しちゃうかも。