ここ最近の科学技術で盛り上がっている分野と言えばAI(人工知能)でしょう。新聞を見れば見出しにAIと書いてないことは無いくらいですし、碁や将棋でAIがプロに勝ったことなどもあり、「AIが人の仕事を奪う」といった議論も良く聞きます。
ただ、AIは大容量のデータを検索したり画像を認識するといった特定の分野では人間以上の能力があっても万能ではありません。
例えば言語の認識(自然言語処理)では人間のようにAIは文脈の意味を理解しているわけではありません。
という記事にも書かれているように、AIでできることの限界も明らかになって来ました。
そもそも、東大合格を目指した「東ロボくん」プロジェクトは、AIの限界を明らかにするためにやられているのではないですかね。
こうしてそろそろAIに対する過剰な期待もなくなり、ブームも終わる事でしょう。
その一方、半導体業界ではAIが流行し始めました。
AIのアルゴリズムは日進月歩ですが、ある程度アルゴリズムが決まってくると、次は実用化に向けていかに高速・低電力・低コストにAIを実現するか、というところが勝負になって来ます。
今までソフトによって実装されていたAIの機能を専用の半導体のハードウエア(AIアクセラレータ)で実現することにより、高速化、低電力化しようという研究が最近とても盛り上がってきているのです。
こうしてソフトが盛り上がった後に、市場が拡大にするにつれて専用のハードウエア(LSI)が登場する、というのはAIに限らず良くあることです。
先週、東芝からプレスリリースがあった、「ディープラーニング(深層学習)を低消費電力で実現する脳型プロセッサを開発」もそういったAIアクセラレータの一つです。
会計問題で世間を騒がせた東芝ですが、次の事業に向けて新しい技術が出てきたことに私もほっとしました。
また、昨年はグーグルがAIのアクセラレータを発表して注目を集めました。
米Googleが深層学習専用プロセッサ「TPU」公表、「性能はGPUの10倍」と主張
自社のサービスのために使うとはいえ、グーグルが半導体業界に参入してきた、とも言えます。
ディープラーニングでは膨大な量の積和計算を行う必要があります。この積和計算は人間のニューロンにおいて、他のニューロンのシナプスから入力した刺激を、ニューロン同士の結合の強さに応じて受け取ることを模擬したものです。
現在使われているAIではこの積和計算をGPU(グラフィックス・プロセッサ)などの従来のデジタル回路で実現しています。
一方、AIアクセラレータでは、積和演算などのAIの計算に最適化したデジタル回路で実現するもの(おそらくグーグルのTPUもこのタイプ)、先ほどの東芝の発表のように、アナログ回路あるいはメモリ技術を活用するものなど様々なLSIが提案されてきています。
こうしてAIによって半導体・LSIの回路設計分野が再び活気を取り戻していますが、残念なことに日本の影が薄い。
エルピーダメモリの破綻やルネサスエレクトロニクスの経営難などにより、日本では半導体に携わる人は産業界だけでなく大学でも肩身が狭い立場です。
半導体分野から他の分野に移ったエンジニア・研究者も多いのではないでしょうか。
しかし、一度技術が失われてしまうと、再び重要になったからと言って、急に技術を立ち上げ先行者に追いつくことは容易ではありません。
私自身も最近は(かつての専門の)LSIの回路設計の研究をトーンダウンさせていました。
しかし、技術は失われると取り戻すことは簡単ではないので、細々ではありますが、回路設計の研究をずっと続けてきました。
このように評論している場合ではなく、既に遅きに失しているかもしれませんが、私もAIアクセラレータの研究に参入しようとしています。コアとなるアナログ技術やメモリ技術は自分の得意分野とはいえ、既にブームになってしまっている今更の参入ですから相当大変です。
事業や産業構造は激しく移り変わり、選択と集中が良しとされる社会ではあります。しかし、こうして再び半導体の研究が活性化すると、時代が変わっても捨ててはいけない技術というのはあるのだと思い知らされました。
現在の日本の大学ではLSIの回路設計に携わる研究者は随分減ってしまいました。
時代が変わっても何を維持すべきか、判断は難しいところですが、私自身は回路設計をやめないで細々とでも維持してきて本当に良かったと思っています。
AIへの応用という、再び注目される応用がこんなにすぐに出現するとは予想できませんでしたが。
編集部より:この投稿は、竹内健・中央大理工学部教授の研究室ブログ「竹内研究室の日記」2016年11月13日の記事を転載させていただきました。オリジナル原稿をお読みになりたい方は「竹内研究室の日記」をご覧ください。