Google I/O 2019のまとめ【Part1】

GoogleIO2019 Googleマップ

Googleは5月7日(現地時間)、本社キャンパス近くの野外ホールであるShoreline AmphitheatreでGoogle I/O 2019(Google年次開発者会議)の基調講演を開催しました。

講演のはじめに登場したスンダ―・ピチャイCEOはGoogleのミッションを示したうえで

答えを見つけるのを助ける企業」から「物事を成し遂げるのを助ける企業」へと進化していくことを明言しました。

Googleのミッション

世界中の情報整理し、世界中の人がアクセスできて使えるようにすること

Organize the world’s information and make it universally accessible and useful.

 

さあ早速「Google I/O 2019」の具体的な内容に入っていきましょう。

今年のI/Oのテーマは

Building a more helpful Google for everyone

(すべての人々のためにより役に立つGoogleを構築する)

となります。

 

Googleニュースのフルカバレッジを強化

昨年のI/Oで紹介されていた、Google Newsのフルカバレッジ機能を強化することがスンダー・ピチャイCEOの冒頭の挨拶の中で明言されました。

そもそも「フルカバレッジ(Full coverage)」とは、直訳すると”フルにカバーされた〇〇”となります。つまり検索したワードにまつわる情報をフルにカバーして提供するということです。盛りだくさんな情報をスッキリまとめるってことですね~

具体的には特定のニュースに関連するツイートやタイムライン、ファクトチェック、分析、追加のコンテンツなどなど様々なメディアの情報を取りまとめて表示し、より多様な視点を提供してくれる機能です。

例えば「ブラックホール」と検索して「フルカバレッジ」ボタンを押すと・・

フルカバレッジ機能

一般的なブラックホールに関するNEWS記事だけではなくて、言葉の解説や、考察、動画、SNSのタイムラインなどをフルにカバーしてまとめ表示してくれます。

このセクションはあえてパーソナライズされず、すべてのユーザーに同じ情報が表示されるそうです。

ちなみに・・日本語版の「Googleニュース」やGoogle検索にいつ「フルカバレッジ機能」が導入されるかはわかりませんが・・・実現すればかなり便利そうですね。

また追加情報として、ポッドキャストについても検索が可能になるとの発言もありました。

ポッドキャストのタイトルのみならず、音声の内容をインデックス化し検索表示するようになるとのこと。またブラウザで検索した画面上で、 「Listen Later(あとで聞く)」をタップすれば、自分が好きな時に聞けるように保存できる機能が追加されるようです。

 

Google検索の3D&AR機能を強化

Google検索で検索した動物や人体などの画像を3D化し、さらにAR(Augmented Reality:拡張現実)として表示する新機能が紹介されました。

例えば「サメ」を検索して表示される画像をタップするとリアルな3D画像が表示されます。さらにその画像をタップすると実物大のサメがスマホのレンズを通してリアルに動き出します。すごい迫力ですね・・

 

また医学を学んでいる学生に役立つであろう人体グラフィックのARや、購入前に確認できるスニーカーの3D画像の事例なども紹介されました。

GoogleIOのAR機能 ar-search-visible-body-small

3D画像そしてARへ。検索において得られる情報がどんどん高度な情報になっていきますね。

 

Google Lensの新機能

Googlelens概要

2017年のGoogleI/Oにて発表されてた「Google lens」がさらに進化します。

スマートフォンのカメラに写った映像を解析するサービス「Google Lens」が進化し、AIを活用した様々な分析機能が追加されます。

例えば、レストランのメニューをスマホで映しGoogle Lensのボタンをタップすると、メニュー上の料理の中からお勧めのものをハイライト表示されます。さらにハイライトされたメニューをタップすると、その料理の写真やレビューが表示されます。

AIによる文字解析機能と位置情報を連携させ、Googleマップの写真やレビューを活用しています。

 

またGoogleレンズの翻訳機能がさらにパワーアップ。すでに12以上の言語で機能しているとのこと。今後は100以上の言語に対応する。読み上げツール「Google Go」と連携することで読み上げも可能にします。これは便利ですね。

まさに「物事を成し遂げる」のを助けるツールとなるのではないでしょうか?

 

Duplex on the Web の進化

AI がユーザーに代わってタスクを自動的に行う「 Duplex on the Web 」もお披露目されました。2018年の I/O において、AI が電話をかけてレストランの予約を行ってくれる Google Duplex が披露され驚きがありましたが・・今回このDuplexがウェブ予約機能として拡張された形となります。

 

会場ではレンタカーの予約を Duplex が行うデモが披露されています。レンタカー予約サイトの入力フォームを自動的に設定し必要項目を埋めていく様子が映され会場はどよめいていましたね。

「旅行に行くからレンタカーを予約して」と伝えると、自分のGoogleアカウントの旅行情報などをもとに、Google DuplexがレンタカーのWEB予約情報を自動入力していきます。おすすめの車種までハイライトで表示してくれていました。自動入力されるのは、名前や住所などだけではなく、借りる日から返す日までを勝手に設定してくれます。そして・・最後の承認ボタンをタップすればレンタル完了となるとのこと。

まだサービス化の目途はたっていないようですが、様々なフィードバックを受けつつ開発を続けていくということでした。すごく楽しみですね~

Googleアシスタントの強化

Googleアシスタントの音声処理能力が飛躍的に進化します。スマホをタップして操作することが遅く思えるほどに??

Google社内では「Next Generation Assistant( 次世代アシスタント)」と呼ばれているそうです。

会場ではデモ担当の女性マギーが次々とGoogleアシスタントに指示を出し、その指示をすごいスピードで処理していく様子が披露されました。

GoogleIO2019Googleアシスタント

GoogleアシスタントのAIモデルは、膨大なデータを処理するため以前は100GB もありました。しかし今回は新たな技術により、たった0.5GBに軽量化されたとのことです。しかしすごいレスポンス速度です。ぜひ上の写真からYOUTUBEの動画をご確認ください。

また、様々なアプリを横断したマルチタスクを行う利用方法や、音声だけでのメール作成及び送信のスピードもDEMOで披露されています。とにかくすごく精度が高くてスピーディ・・。

もちろん、Gメールを見たり、懐中電灯をつけたり、カレンダーをチェックしたりすることはオフライン環境でも簡単に実行できます。

近い将来テキストをうったり、画面をタップしなくても、かなりのオペレーションが音声だけで行われるようになることを確信できるDEMOとなっています。

また「Picks for you」という機能も紹介されています。

例えば「ヘイGoogle!今日の夕食はなにを作ったらいいかな?」と次世代アシスタントに伝えると、「あなたにおすすめのレシピをいくつか選んでみました」という風に、その人にあったレシピやメニューが表示されます。

ユーザーごとに表示されるメニューが違うそうです。どれだけビッグデータを持っているのでしょうか・・。とにかく便利です。

この機能については「レシピ」「イベント」「ポッドキャスト」に絞ってリリースされるそうです。

Googleアシスタントの新しい運転モード

Googleアシスタントに新しい「Driving mode(運転モード)」が追加されます。アンドロイドには今年の夏には実装されるそうです。

使い方はシンプルで運転する際に「ヘイGoogle運転を始めよう」と伝えるだけです。

Driving mode(運転モード)」はよく考えられたインターフェイスになっており、あなたの運転に最も関連の高い情報を見やすい形で表示してくれます。

例えばGoogleカレンダーにレストランの予約が入っていればレストランへの道順のショートカットが表示されます。また朝途中まで聞いた音楽があれば、途中から再生できるようになっているそうです。かゆいところに手が届くという感じですね。

 

さて今回はここまでです。このつづきは『Google I/O 2019のまとめ【Part2】』にてご紹介していきます!