NEWS

Backchannel:Apple、Siriなど人工知能開発について語る

※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。

Backchannelが、Appleのインターネットソフトウェア&サービス担当シニアヴァイスプレジデントEddy Cue氏、ワールドワイドマーケティング担当シニアバイスプレジデントPhilip W. Schiller氏、ソフトウェアエンジニアリング担当シニアバイスプレジデントCraig Federighi氏、Siri担当シニアディレクターAlex Acero氏、Siri開発担当ヘッドTom Gruber氏(元Siri社CTO・VP Design)への、SiriなどAppleの人工知能開発に関するインタビューを掲載しています。


2010年4月28日にAppleによって買収されたSiriは、iPhone 4Sに搭載されました。

2014年7月30日にニューラル・ネット・ベースのシステムに変更され、2014年8月15日からユーザー提供を開始(iOS 8.0 Betaの頃)したそうです。

システムの変更はユーザーには知らせず、2014年9月17日に提供開始されたiOS 8.1で「Hey Siri」機能が利用可能になり、音声認識精度が向上していることなどが知られるようになったそうです。

Siriの変化は、人工知能開発の成果であり、機械学習における進化によるものだそうです。

iPhoneでAIのために蓄積されている情報は200MB程度で、常に更新されていると説明し、アプリ使用状況、他のユーザーとのやりとり、ニューラル・ネット処理、スピーチ・モデラーなどの情報を含んでおり、自然言語イベントモデリングも場面に応じて使用しているそうです。

最近の1年間で20〜30社のAI関連企業を買収していて、人工知能分野における研究開発者を多く必要としているからだと説明しています。

機械学習は、AIだけのためだけでなく、Apple Pencilにも使われているそうで、iPad Pro上のスクリーン・センサー上におけるパームリジェクションの判断などにも活用されているそうです。

このSiriの開発研究は、iPhoneのマイク開発にも影響を与えているそうです。

こうした人工知能に必要な知識データーベースは、Spotlight検索、マップ検索、Safari検索などがら蓄積されることで精度を上げる事が可能だが、個人を特定しない情報取得方法として「ディファレンシャル・プライバシー」を適用すると説明しています。


関連エントリー:Siriの精度は、Apache Mesosと人力の力


関連記事

この記事のハッシュタグ から関連する記事を表示しています。

新着記事