GoogleがPixel 3のトップショットモードの仕組みを詳しく解説

Google Pixel 3 には、特に写真セクションにおいて、いくつかの独自機能が備わっていました。そのうちの 1 つは、英語で以前はスマート キャプチャまたはスマート キャプチャとして知られていたTop Shotです。

トップ ショットは、 Google Pixel 2のモーション フォトに似ていますが、重要な違いがあります。それは、バースト内で最も優れた写真を人工知能で選択できることです。 Google は、人工知能ブログの新しい投稿で、システムがどのように機能するかについてさらに詳しく説明しています。

まずはたくさん写真を撮りましょう

大まかにどのように機能するかはすでにわかっていましたが、これですべての詳細がわかりました。 Google Pixel 3 カメラではトップ ショットがデフォルトで有効になっており、最初のステップは明らかにバーストを記録することです。

具体的には、シャッターボタンを押す1.5秒前から1.5秒後までの90枚の画像を解析します。システムは、シャッターが押されたときの元の写真と、システムが選択した最大 2 つの代替写真を高解像度で保存します。

最も優れた点は、このプロセス全体が電話で行われ、情報が Google クラウドに送信されないことです。ここでは、 Visual Coreチップが役に立ち、これらの代替写真の HDR+ 処理が可能な限り高速になり、遅延がほとんどなくなります。システムは、バッテリー消費を制限するように最適化されています。

どの写真が優れているかを Google が判断する仕組み

さて、Google Pixel は、90 バーストの写真が、シャッターを押すのと全く同じ写真よりも優れていることをどのようにして判断するのでしょうか?簡単な答えは明らかに人工知能ですが、より詳細な説明が必要な場合は、スコアリング システムに基づいています。

基本的に、スナップショットの各フレームは、写真がぼやけているかどうか、照明がどのようなものであるか、笑顔が検出されるかどうか、目が開いているかどうか、驚きや楽しさの表情など、多くの要素に基づいてスコア付けされます。

推奨します

トップ ショットでは画像の解釈が優先されますが、画像に何もない場合は、移動オブジェクトの有無、センサーとジャイロスコープのデータ、自動露出、ホワイト バランス、フォーカス スコアなどの他の要素が考慮されます。

この「機械」も人間の協力者の助けを借りて訓練されました。何百人ものボランティアが、90 枚の画像の中からどれが最良で、その理由を判断する必要がありました。

詳細情報 |グーグル

GoogleがPixel 3のトップショットモードの仕組みを詳しく解説・関連動画