Googleニュース

Googleがマルチタスク統合モデルを発表-MUM

グーグルは、ウェブ上のクエリと言語を理解する方法の次の大きな変更を発表しました-彼らはそれをMUMと呼んでいます-マルチタスク統合モデル。これはまだライブではありませんが、Googleはそれについて少し共有したいと思いました。グーグルはこの「グーグルが言語をよりよく理解し、複雑な検索ニーズへの有用な応答をより簡単に得ることを可能にするためにグーグルが内部で探求している新しい技術」と言った。

Googleは、Transformerアーキテクチャ上に構築されているという点でBERTに似ていますが、1,000倍強力であると述べています。グーグルによると、MUMは言語を理解するだけでなく、言語も生成します。Googleによると、MUMは「75の異なる言語と多くの異なるタスクで同時にトレーニングされ、以前のモデルよりも情報と世界の知識をより包括的に理解できるようになります。また、MUMはマルチモーダルであるため、テキストや画像全体の情報を理解します。将来的には、ビデオやオーディオなど、より多くのモダリティに拡大する可能性があります。」

次に例を示します。

上記の例で、Googleは、MUMは世界に関する深い知識に基づいて洞察を表面化できると述べましたが、両方の山がほぼ同じ標高である一方で、秋は山の梅雨であることを強調できます。富士なので防水ジャケットが必要かもしれません。MUMは、Web全体からの役立つ記事、ビデオ、および画像へのポインターを使用して、より深い調査に役立つサブトピック(一流のギアや最高のトレーニング演習など)を表示することもできます。

また、言語やタイプを超えた情報の理解にも非常に適しています。グーグルは「今後数ヶ月と数年で私たちの製品にMUMを利用した機能と改善」と述べた。

詳細については、Googleブログをご覧ください。

Twitterでのフォーラムディスカッション。

Follow me!

-Googleニュース

PAGE TOP