Googleは配布を開始しましたジェミニライブの新しい人工知能機能。アシスタントは、画面またはスマートフォンカメラを介して「表示」し、リアルタイムで質問に答えることができます。
この斬新さは、これらの機能を養うテクノロジーである「Project Astra」の最初のデモンストレーションからほぼ1年後です。
世界を理解するためのライブジェミニの新しいスキル
これは、3月上旬にGoogleが発表した2つの機能の1つであり、「Google Oneプランの一部としてプレミアムへのGemini Advancedの加入者に配布され始めたでしょう」。 Redditユーザーは、彼のXiaomi電話で彼の外観を報告しました、9to5googleによって報告されているように。その後、同じユーザーが新しいGeminiスクリーンの読み取り能力を示すビデオを公開しました。
これで、画面(モバイル)をジェミニライブに共有できますか?
によるおよび/was_psで吟遊詩人
分布段階でのAstraの他の能力はライブビデオ。この機能により、ジェミニはスマートフォンカメラからのビデオフローをリアルタイムで解釈し、関連する質問に答えることができます。 Googleが公開したデモビデオでは、この機能を使用して、新しくエナメルのセラミックの塗料の色の選択に関するアドバイスをGeminiに依頼します。
これらの機能のGoogleの分布は、IAアシスタントセクターにおける同社の利点を強調しています。 Amazonは彼の限られた早期アクセスでデビューする準備をしていますAlexa Plus Update、 その間AppleはSiriの更新を遅らせました。どちらも、アストラが利用可能になり始めているものと同様のスキルを持っている必要があります。一方、サムスンにはまだBixbyがありますが、Geminiは携帯電話の事前定義されたアシスタントです。
そして、これらの新しいジェミニ関数についてどう思いますか?彼らはあなたに役立つと思いますか?以下のコメントで教えてください。