ソフトウェアでできることをハードウェアでやらないでください。これは Google の基本的なアプローチの 1 つであり、Google は長年にわたり、優れたポートレートを撮影するために 2 台のカメラは必要ないこと、流動性を高めるために過剰なハードウェアは必要ないこと、機械学習は何もしなくてもオペレーティング システム全体に適用できることを実証してきました。ユーザー自身もそれに気づいていません。
3 月の最後のアップデートで、Google は Pixel に関して興味深い以上のニュースを提供しました。しかし、最もコメントが少ないものの 1 つは、正確に言えば、最も興味深いものの 1 つです。 Googleは、ソフトウェアを使用して独自の「3D Touch」を作成することに成功しました。
これがGoogleが開発した「3D Touch」です

3 月のパッチで導入された一連の新機能により、Google は自社の Pixel が画面にかかる圧力を認識できるようにしました。同社がThe Vergeに説明したように、この機能は将来的にGoogleアプリケーションにも拡張される予定で、現在はランチャーで利用可能です。
「長押し機能は現在、ランチャー アプリ、写真、ドライブなどの一部のアプリとシステム UI で動作します。このアップデートによりタップ速度が向上し、より多くのオプションがより速く表示されます。また、アプリをよりプレミアムなアプリに拡張する予定です。近い将来。」
基本的に、Google は Android の 10 番目のバージョンから存在する「Deep Press」API を使用してきました。これにより、押されているタッチ領域を検出できる一連のアルゴリズムが動作しました。圧力が高いほど、パルス領域が大きくなります。いつものように、この種の機能では機械学習が鍵となり、Google はさまざまな指のサイズやキーストロークを解釈できます。
このメカニズム全体は API に基づいているため、開発者はそれを使用してこのテクノロジーを適用できますが、今のところ、最初にランチャーに実装し、将来的には Google フォトやドライブなどのアプリに実装する措置を講じているのは Google だけです。 。
Force Touch 以降、状況はどのように変化したか

このコンセプトが Apple の手に渡って以来、事態がどれだけ変わったのかは興味深い。 Force Touch は 5 年前の 2014 年 9 月に Apple によって開発されたテクノロジーです。このテクノロジーは Apple Watch から始まり、最終的には iPhone の「3D Touch」として登場しました。
この技術の主な「問題」は、デバイスのボード内に物理コンポーネントが必要であったことですが、時間が経つにつれて、Apple はiPhone XRからは物理コンポーネントを省略することに決めました。この携帯電話は、圧力センサーを長押しシステム (Haptic Touch) に置き換えました。これは、古い 3D Touch の機能の一部を満たしていますが、本来のレベルには達していません。
同様に、Google 自体もしばらくの間、機能を呼び出すためにランチャーに長押しを実装してきました。基本的には、Haptic Touch と同じ考え方です。数ミリ秒間押して機能を呼び出します。それはともかく、Android 上のアプリケーションが圧力を検出できるようになる可能性はこれまで以上に開かれているため、最終的に人気が出るのかどうかは見極める必要があります。
経由 | ザ・ヴァージ