あなたの英語学習方法ではネイティブに伝わらない。
ネイティブに間違えられてしまう方法。それは英語リズム
スポンサードリンク

インテルがCESで話した、これから数十年の人々の生活(アスキー)

スポンサーリンク
スポンサードリンク

インテルがCESで話した、これから数十年の人々の生活
[元記事]
世界最大のエレクトロニクスショー「CES」の開催前日となる米国時間の1月6日、インテルは記者向けの基調講演を実施。同社CEOのBob Swan氏が登壇し「インテルの役割は、半導体技術とソフトウェア技術を統合し、AI、5G、エッジコンピューティングといった技術を、ユーザーがそれぞれの組み合わせで活用できるようすること」と話した。【もっと写真を見る】

インテルがCES 2020で基調講演
 世界最大のエレクトロニクスショー「CES」の開催前日となる米国時間の1月6日、インテルが基調講演を実施。
 
 まず同社CEOのBob Swan氏が登壇し「インテルの役割は、半導体技術とソフトウェア技術を統合し、AI、5G、エッジコンピューティングといった技術を、ユーザーがそれぞれの組み合わせで活用できるようすること。そして、今後、数十年間の人々の生活豊かな生活と、世界の形成を実現すること」と話した。
 
 インテルといえば、半導体メーカーとしての認識が根強いし、2018年にはサムスン電子に半導体首位を一時的に奪われたこともあったものの、2019年には首位に返り咲き、半導体メーカーの最大手企業であり続けている。
 
 しかし、最早インテルが単なる半導体メーカーではないことも明白だ。ここで、10年間の、インテルのCESでの基調講演の内容をかんたんに振り返ってみる。
 
2014年に傾向が変わる
 まず2010年、2011年は新しいCoreプロセッサーが最大のニュースだった。Sandy BridgeやIvy Bridgeが登場した頃で、プロセスルールが45nmから32nmへ、32nmから22nmへと、どんどん更新されていた時期だ。
 
 2012年はUltrabook、2013年はHaswellやAtomを大きく取り上げ、プロセッサーの省電力性能が、ハードウェアにどう影響するかといった部分に言及した。
 
 新しいCPUの発表はその後もHaswell(2013年)、Broadwell(2014年)、Skylake(2016年)と続く。2014年にプロセスルールが14nmに更新されてからは、2018年まで14nmプロセスルールが続き、2018年にCoffee Lakeでようやく10nmに変わった。
 
 基調講演の傾向が変わってきたのは、14nmのプロセスルールが続いていたこの期間(プロセスルールの更新はCPUの分野では最大のトピックになり得るため、更新のないCPUはニュース性に乏しかったという側面もあるだろう)。
 
 インテルは2014年に深度認識機能「Real Sense」を発表し「PCに世界を認識させることができる」「大きな変革をもたらす」という文脈でこの技術を語った。2015年、2016年、2017年もCPUやSoCの発表はあったが、Real Senseやセンシング技術、モビリティ、ロボットといった分野にフォーカスした発表が続く。
 
AIへの取り組みを加速
 そして、2018年、インテルはAIを用いたデモを披露。2019年には(プロセスルールが更新されるかどうかの注目も集めつつ)AI、5G、自動運転などに重点を置き「技術が社会や日常生活をどう変えるか?」という視点での講演が展開された。
 
 インテルは、この時期にはちょうど、インテルがイスラエルのAI企業Habana labsをおよそ20億ドルで買収している。その際のプレスリリースでは「AIを活用したビジネス戦略には、ハードウェアとソフトウェアの幅広い組み合わせと、完全なエコシステムサポートが必要」と述べるとともに「2019年、インテルは、AIによる収益として35億ドル以上を生み出し、前年比で20%以上増加すると予想している」とも発表。
 
 数年続いていたインテルのAI分野への取り組みが大きく加速し、インテルが明確にAI市場を掴みに行ったのは、このタイミングではないだろうか。
 
基調講演はAIが大きな軸に
 ここまでの流れを踏まえ、CES 2020でのインテルの基調講演を紹介する。今年の発表内容は、同社が力を入れている自律走行型のロボカーのデモ、インテルと米国赤十字による「Missing Mapsプロジェクト」による災害対策の改善に関する取り組み、モバイル・コンピューティング・イノベーション、XeonやAIを活用したスポーツやエンターテイメントの未来といったテーマがメイン(もうひとつの大きなニュースとして、新たなCPUやGPUも発表している)。
 
ハードとソフトの組み合わせで社会を変革
 インテルは今回の基調講演で、「データセンターは世界中の企業にインテリジェンスを提供する力」とも述べている。
 
 登壇したヴァイスプレジデントのNavin Shenoy氏は、2020年に提供開始予定の第3世代 Xeon スケーラブルプロセッサーを活用し、クラウド、ネットワーク、エッジにAIを組み込むことで、社会にどのような影響を与えるかというテーマでスピーチ。
 
 Navin Shenoy氏はまず、「インテル DL Boost」によって、第3世代 Xeonは前世代と比較して、学習性能が最大60%向上していると発表した。また、Xeonの性能が生かされる具体的な例として、インテルがネットフリックスを支援し、従来のAVCと比較し、50%以上の圧縮効率という動画圧縮技術「AV1」を開発したことを明かした。これによって、より高速な試聴体験が可能になるとし、インテルとネットフリックスは引き続き圧縮技術の共同研究を重ね、商用運用を目指す。
 
 合わせて紹介されたのは、Alibaba Cloud上で稼働する「3Dアスリート・トラッキング(3DAT)」と呼ばれる新しい技術だ。AIを活用した3Dメッシュ生成技術だが、特殊なセンサーやスーツを使用することなく、複数のビデオカメラで実現するのが大きな特徴。プレーヤーは、普段のユニフォームや環境を何も変えず、高精度の3Dメッシュが作成できる。
 
 普段の環境に、複雑な生体力学的データを抽出できる機能を持たせられるため「人間の生物学的な能力に変革をもたらす可能性すらある技術だ」とNavin Shenoy氏は話した。また「放送局も、まったく新しい分析や検証の方法を生み出せる」とも述べた。インテルとアリババは、2020年東京オリンピックでの提供を目指し、引き続き開発を進める。
 
好きな選手の視点で、リアルタイムで試合が見れるように
 スポーツ関連では「ボリューメトリック・ビデオ・ストリーミング」の概要も明かされた。
 
 「インテル True View」によって、スタジアムのフィールド全体をセンシングし、カメラで撮影したかのように映像化するというもの。実現すれば、スタジアム内の任意の視点からの映像を(擬似的にではあるが)リアルタイムに視聴できるようになる。
 
 例えば、特定の選手のファンが、その選手の視点で試合を観戦するといったことができるようになるため、視聴者側も大いにメリットのある技術だ。
 
 生成されるデータ量は毎分3TBといい、「指数関数的に」データが増加する。しかし、ネットワークと視聴者の手元の端末にAIを導入することで、こうした夢のような技術が実現できるのだと話した。
 
 会場で披露されたデモは、選手に接近すれば3Dグラフィックであることが視認できるものの、すこし離れた視点に切り替えると、カメラで撮影した映像にかなり近い生々しさがあった。
 
 肉眼ではスタジアムを遠目から見て、手元の端末では、ファンの選手の視点をストリーミングする……これはまさしく生活や体験の変革と言えるのではないだろうか。
 
CES 2020から考えるインテルの役割の変化
 そしてこれらの技術は、現代で考えられる範囲で、極限に近いところまで進歩した半導体=ハードウェアを、どのように活用して=ソフトウェアと統合して、社会を変革していくかというテーマであり、記事冒頭のBob Swan氏による「インテルの役割は、半導体技術とソフトウェア技術を統合」という発言とぴったり重なる。
 
 1960年代の創業以来、半導体メーカーの王者として君臨し続けたインテルがCES 2020で「半導体技術とソフトウェア技術を統合」と宣言したことは、将来振り返った際に、歴史的な転換のポイントとして語られるかもしれない。
 
 そして、技術は「より高機能を目指して進歩するソフト」「それを動かすため、日々スペックを追求するハード」という従来の進歩が一旦、現時点での終着を迎え「統合されたハードとソフトが、より深く現実の世界と結びつきはじめる」という段階に差しかかったのでないか。
 
 
文● 貝塚 編集● ASCII

スポンサーリンク

シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク