3つの新しいUSE多言語モジュールがTensorFlowに登場します

技術 / 3つの新しいUSE多言語モジュールがTensorFlowに登場します 読んだ2分

Google音声検索



グーグルはAI研究のパイオニアの1つであり、彼らのプロジェクトの多くは頭を回転させてきました。 AlphaZero Googleの DeepMind チームは、プログラムが複雑なゲームを単独で学習できるため(人間のトレーニングや介入なしで)、AI研究の飛躍的な進歩を遂げました。グーグルはまた、 自然言語処理プログラム (NLP)。これは、人間の音声の理解と処理におけるGoogleアシスタントの効率の背後にある理由の1つです。

グーグルは最近、3つの新しいリリースを発表しました 多言語モジュールを使用する 意味的に類似したテキストを取得するためのより多くの多言語モデルを提供します。



最初の2つのモジュールは、意味的に類似したテキストを検索するための多言語モデルを提供します。1つは検索パフォーマンス用に最適化され、もう1つは速度とメモリ使用量の削減用に最適化されています。 3番目のモデルは 質疑応答検索 16の言語(USE-QA)であり、USEのまったく新しいアプリケーションを表しています。 3つの多言語モジュールはすべて、 マルチタスクデュアルエンコーダフレームワーク 、英語の元のUSEモデルと同様ですが、改善のために開発した手法を使用しています。 アディティブマージンソフトマックスアプローチを備えたデュアルエンコーダ 。これらは、優れた転移学習パフォーマンスを維持するだけでなく、n個のセマンティック検索タスクを適切に実行するように設計されています。



システムでの言語処理は、基本的な構文ツリーの解析から大きなベクトル関連モデルまで、長い道のりを歩んできました。テキストのコンテキストを理解することは、NLP分野の最大の問題の1つであり、Universal Sentence Encoderは、テキストを高次元のベクトルに変換することでこれを解決します。これにより、テキストのランク付けと表示が容易になります。



UTEマーキング構造ソース–Googleブログ

グーグルによると、「 3つの新しいモジュールはすべて、セマンティック検索アーキテクチャに基づいて構築されています。これは通常、質問と回答のエンコーディングを別々のニューラルネットワークに分割し、ミリ秒以内に数十億の潜在的な回答の中から検索できるようにします。 言い換えれば、これはデータのより良い索引付けに役立ちます。

「」 3つの多言語モジュールはすべて、 マルチタスクデュアルエンコーダフレームワーク 、英語の元のUSEモデルと同様ですが、改善のために開発した手法を使用しています。 アディティブマージンソフトマックスアプローチを備えたデュアルエンコーダ 。これらは、優れた伝達学習パフォーマンスを維持するだけでなく、n個のセマンティック検索タスクを適切に実行するように設計されています。 。」 Softmax関数は、ベクトルを指数化し、すべての要素を指数の合計で除算することにより、計算能力を節約するためによく使用されます。



セマンティック検索アーキテクチャ

「3つの新しいモジュールはすべてセマンティック検索アーキテクチャに基づいて構築されており、通常、質問と回答のエンコーディングを別々のニューラルネットワークに分割します。これにより、ミリ秒以内に数十億の潜在的な回答を検索できます。効率的なセマンティック検索のためにデュアルエンコーダーを使用するための鍵は、予想される入力クエリに対するすべての候補回答を事前にエンコードし、それらを解決するために最適化されたベクトルデータベースに保存することです。 最近傍問題 、これにより、多数の候補者をすばやく検索できます。 適合率と再現率 。」

これらのモジュールはTensorFlowハブからダウンロードできます。詳細については、GoogleAIの全文を参照してください ブログ投稿 。

タグ グーグル