検索クオリティが向上!Google「マルチサーチ」サービスの仕組みを解説
2022年4月に、Googleから「multisearch(マルチサーチ)」という新しいサービスのベータ版が発表されました。検索クオリティの向上が期待される、画期的な機能が盛り込まれた内容であり、特にマーケティング業務を担う方は必見です。今回はこのマルチサーチについて解説していきます。
Contents
マルチサーチの意義
(1)マルチサーチとは
ある商品やサービス、イベントなどを知りたいとき、GoogleやYahoo!などの検索エンジンでテキストを入力して検索するのが従来の情報収集方法です。また近年はTwitter、InstagramなどSNSの台頭により、検索エンジンとSNSの組み合わせや、SNSのタグだけでの検索など、検索手段の多様化が進んでいます。
Googleの新サービスであるマルチサーチとは、 Google レンズで検索した画像とテキストを組み合わせて検索することができるシステムを指します。検索エンジンやSNSで検索する際は、文字(テキスト)を打つことで検索しており、名称が分からないものを調べるのは工夫が必要でした。マルチサーチは「画像+テキスト」での検索なので、例えば目の前の植物の名前が知りたいときに、写真とテキスト(例『植物の名前』)で検索をすれば、その植物の名前を調べることができるようになります。
気になったらその場ですぐに調べられ、知ることができるという体験は、次のアクションを促進させ、より多くの機会・出会いに恵まれるようになるでしょう。また、企業にとっても今まで以上に画像が重要になるため、より的確なマーケティングをしていく必要があります。新たな購買層獲得のチャンスにも繋がるので、ぜひ今から対応を検討しましょう。
現在はアメリカでベータ版が導入されていますが、今後数ヶ月で日本語を含む 70 以上の言語に対応する予定とのことです。(Google公式ブログ2022年10月1日付「Gboard チームからの新しい日本語入力方法のご提案 2022」)
(2)マルチサーチ開発の背景
今回Googleがマルチサーチの開発に着手したのは、「Inspired Shopping Report」という調査に起因すると言われています。このレポートの調査目的は、ショッピングを楽しむユーザーが実際に気になっていた商品の購入を意思決定する際に、どのようなインスピレーションを受けているのか理解を深めることであり、ビューティ・アパレル・インテリアに特化した商品を購入した米国人2,000人を対象とした調査結果がまとめられています。この調査で、興味を持ったものを後からオンラインで調査したり、検索してもうまく探し出すことができなかったりした経験を持つ人が一定数いることがわかりました。
(a)他人が使用しているアイテムを見た後にオンラインで商品検索をしたことがある人の割合:39%
(b)ネットで興味を持った洋服などの画像をスクリーンショットで保存したことがある人の割合:48%
また、上記のうち、後に詳細に検索するまたは実施に商品を購入した経験がある人の割合:70%
(c)興味を持った商品を、テキストだけでオンライン検索を試みるも、目当ての商品を探し出すことができなかった経験がある人の割合:50%
(d)自分の好みの商品に出会った場合に、類似する商品や別のカラーやデザインの展開を知りたいと思った経験がある人の割合:66%
画像とテキストの組み合わせで検索できるマルチサーチは、これらの人たちにとって欲しい商品に出会える可能性を高め、ショッピングをさらに快適に楽しめるようになるサービスになるでしょう。
Googleマルチサーチの仕組み
ユーザーの中でも、特にファッションが好きな方はマルチサーチとの相性が抜群です。ユーザーと企業双方がより効果的に使いこなせるよう、まずはマルチサーチの仕組みについて学んでいきましょう。
(1)検索アルゴリズムMUMの導入
MUM(マム:Multitask Unified Mode)とは、2021年5月に発表された新しい検索アルゴリズムです。通常であれば複数回検索が必要な複雑な質問に対し、検索意図を考慮してさまざまな状況、条件等を考慮に入れながら、最小回数で最適な回答にたどり着くことができるようになります。
一方、現在主流で使われているのは2018年にGoogleが公表した、自然言語処理技術(NLP)の一種であるBELT(バート:Bidirectional Encoder Representations from Transformers)です。BELTの大きな特徴は、その効率的な学習方法と文脈の読解力にあります。従来のNLPでは、事前に用意した大量のラベル付きデータを、NLPに処理させて機械学習を行わせていました。データ量に比例してNLPの学習精度も上がっていきますが、日々データを大量に用意し、学習させることは困難なものでした。これに対しBERTでは、事前学習としてラベルをつけていない大量のデータを先に学ばせ、あとから少量のラベルつきデータを与えることで学習を完成させることができます。これを「ファインチューニング」と言います。
従来のNLPは日々データ量を増やしていかなければならなかったのに対し、BELTは最初に大量のデータを用意すれば後からの学習は少量で十分という点で、省力化にも繋がる画期的なアルゴリズムといえます。Googleで検索される言語の15%は全く新しい言葉が占めているため、BELTの学習効率は飛躍的に上がっています。
また、BELTの特徴として、検索キーワードの文脈を理解できる点が挙げられます。例えば「赤くないワンピース」という検索をした場合、従来のNLPだと、赤くないのか、ワンピースじゃないのか、否定語の適用場所を理解できず、的外れな回答を出してしまうことが多いものでした。しかし、BELTの場合は文脈やその他の条件等を理解した上で提案してくれるので、ユーザーが望む「赤色以外のワンピース」が検索結果として出てきます(※検索キーワードによって差があります)。
さらに、ユーザーの意図した検索結果を出せる高度な処理能力を、今後も伸びていくであろう音声検索にも活用していく予定となっています。話し言葉は単純な文章と同じように処理することは難しいため、実装が期待されています。話し言葉でも検索エンジンに意図が伝わり、タイムラグなく欲しい結果が得られるという快適な生活が来るかもしれません。
このようなハイスペックなアルゴリズムを上回るのが、先ほど紹介したMUMです。MUMはBELTの1000倍以上の性能を備えていると言われています。BERTとMUMの大きな違いは、マルチタスクであるか否かです。BERTが1つ1つ順を追って処理を行うのに対し、MUMは複数のタスクを同時に処理することができます。すなわち、ユーザーが入力したクエリを瞬時に理解しながら、世界中に存在しているサイトのテキストから、動画や静止画の内容までも同時に認識し最適解を導き出すのです。
MUMの特徴として、このマルチタスクによるスピード処理技術、世界の75言語に対応していること(言語理解の生成も可能)、現状はテキストのみですが、ゆくゆくは動画・静止画・音声も認識できるようになっていく点が挙げられます。多くの言語を網羅しているため、例えば外国人旅行者の観光の手助けなど、世界を繋げるツールとして利用できそうな点もポイントです。
(2)Googleレンズとの連携
GoogleはすでにMUMとGoogleレンズとの連携を発表しています。GoogleレンズはAIを使った検索機能で、画像内の文字をテキストにして検索することができます。また、画像内のテキストの翻訳、名刺などの連絡先データの抽出、商品情報の入手などもGoogleレンズの特徴といえるでしょう。iPhone/Androidどちらの端末でも利用が可能で、日本語にも対応しています。
(3)Googleマルチサーチの利用方法
マルチ―サーチにおいては、MUMとGoogleレンズの連携により、検索結果に対して関連語句を追加することで、その検索結果に対するさまざまな関連情報を一度に取得できるようになります。例えば好みの花を見つけた時、花の写真を検索すると似ている画像や花の情報を出してくれますが、さらに「購入」というワードを追加することでその花の購入場所をピックアップしてくれるようになります。
利用手順は以下のようになります。
1.紫色の花をGoogle レンズに写すと、類似する花が検索結果に表示されます。(※この機能はGoogleレンズの従来からの機能です)
2.画面上に “Add to your search” という検索ボックスが用意されているので、このボックス内に《buy》とテキストを追加入力します。
3.Googleレンズに写した紫色の花と類似した花の購入可能な場所を検索結果に表示することが可能となります。
終わりに
検索市場で70%以上のシェアを持つGoogleは、世界で最も人気の検索エンジンです。近年は音声アシスタントなどの技術がGoogleの地位を脅かしつつあり、AmazonなどがEコマースやスマートスピーカー、広告市場などの面からGoogleに対抗しようとしています。
このような中で打ち出されたGoogleの検索サービスの向上は、現代のニーズに応え、ユーザーや企業の今後の生活をより豊かにしてくれるものと言えるでしょう。今後もGoogleの動向や発表から目が離せません。