Google I/O 2019 カンファレンスは期待を裏切りませんでした。予想通り、 拡張現実が検索エンジン、新しい Google レンズ機能、新しいPixel フォンにどのように統合されるかを見ることができただけでなく、 Google が将来どうなるかを見ることができました。アシスタントのように、そして真実は、それが誰も無関心ではないということです。
実際、数字がそれを物語っています。過去 3 年間で、80 か国の 30 の言語を話せるようになり、30,000 台以上の接続デバイスで動作します。したがって、Google はそれをよりスマートにし、私たちの生活を楽にするために引き続き取り組んでいます。そして、私たちはそれが完全に動作しているのを確認し、今後数か月以内に提供される機能を非常に簡単に実証しました。
ますますパーソナルに、より速く
このためには、人工知能が重要な役割を果たします。そのおかげで、ニューラル ネットワークは新しい音声認識モデルを生成することに成功し、Google アシスタントをモバイル自体で実行できるようになり、即座に反応するまでの応答能力が向上しました。
そしてすべてを最小限の表現に落とし込んだ。それは無駄ではありません。現在のアシスタント モデルが 100 GB である場合、インターネット接続を必要とせずに、それを 0.5 GB (ローカルでの実行が容易になります) に減らすことができました。
新しい Google アシスタントは、応答能力が最大 10 倍速くなりました
新しい Google アシスタントは、リクエストが行われると同時にリクエストを処理して理解することができ、これまでのものよりも最大 10 倍速い応答能力を備えています。ライブ デモンストレーションでは、これについてよく説明されており、ほぼ即座に反応することができる一連のアクションが連鎖的に行われました。アプリを開く、会話で画像を送信する、電子メールを作成または送信する (メッセージの本文や件名を明確に区別する) などは、ほんの一部です。しかも、アシスタントに何かを尋ねるたびに「OK Google」と言う必要はありません。
しかし、それは速いだけでなく、より人道的でもあります。 Google によると、アシスタントが本当に役立つためには、各ユーザーにとって本当に重要な人々、その近くにいる人、場所やイベントを理解する必要があります。
したがって、アシスタントは、「今週末の母の家の天気はどうですか」や「妹の誕生日の 1 週間前に花を注文するようリマインドしてください」などの質問に答えられるようになるまで、それぞれの質問から学びます。もちろん、ユーザーは常に個人情報を管理できるため、いつでも新しいデータを追加、編集、削除できます。
このアシスタントは使用するにつれて学習し、夏前に導入される「スマート ディスプレイ」機能のおかげで、検索、レシピ、イベント、ポッドキャストに基づいてパーソナライズされた提案を提供します。また、助けを求める時間帯なども細かく考慮してくれるので、朝一番に「レシピ」を検索すると、朝食のレシピを提案してくれます。
走行モード
今年の初めに、 Google アシスタントが Google マップにどのように統合され、携帯電話に触れずに音声コマンドを通じてブラウザを使用できるようになったのかをすでに確認しました。この機能はまもなく Waze に追加される予定ですが、新機能はそれだけではありません。
実際、マウンテン ビューの企業は、音声ですべてを実行できる運転モードを検討しており、この目的のために、ナビゲーション、メッセージング、通話、音楽などの最も関連性の高いアクティビティを送信する音声パネルを設計しました。再生。
ユーザーごとに提案が含まれるため、たとえばレストランでディナーを予約している場合、携帯電話に触れることなく、Google マップが道順を提供します。運転中に電話をかけてくるんですか? Google アシスタントは相手が誰であるかを通知し、通話に応答するか拒否するかを尋ねます。さらに、遠隔操作機能も搭載するため、例えば車に乗る前に車を一定の温度に保つことも可能だ。
この機能は、携帯電話が Bluetooth 経由で車両に接続されているとき、または「OK Google、ドライブに行こう」と話しかけたときに有効になり、Google アシスタントを搭載した Android スマートフォンで来年の夏から利用できるようになる予定です。
悪いニュースは、新しい Google アシスタント機能の正確な実装日がまだ決まっていないことですが、今年中に発売される新しい Pixel で実装される予定ですが、その予定はありません。
詳細情報 | グーグル