目次:
- バッテリー、ランチャー、ベッドでの機械学習
- Android P
- チャットしましょう
- Google Assistant
- コンピューターは「うーん」と言った
- Google Duplex
- 強化。
- Googleフォト
- 世界を見ましょう
- Google Lens
- 信頼できるソースとコンテキスト
- グーグルニュース
- 電話の使用量を理解する
- Androidダッシュボード
- ビジュアルポジショニングシステム
- グーグルマップ
- 7月に来る
- スマートディスプレイ
- これまで以上にスマート
- AI
- 次の全文を予測する
- Gmail
- 自動運転の未来
- ウェイモ
AndroidとChromeが成熟して収束し、機械学習とAIの進歩に導かれたAssistantがGoogleの計画の中心的役割を果たしたため、昨年はGoogleの成長と移行の1つでした。
同時に、Googleは検索カルーセルに虚偽のニュースを表示し、YouTubeでの過激派の動画の広がりを制限するのに十分なことをしていないことを認めたことで、火をつけられました。
Google I / O 2018では、これらのトピックすべてに対処し、開発者がアプリやサービスを改善するための多くの新しいツールを発表しました。
Google I / O 2018からの主要な発表はすべてここにあります!
バッテリー、ランチャー、ベッドでの機械学習
Android P
GoogleはAndroid Pを使用して、取り組むべき3つの主な分野、すなわち知性、シンプルさ、デジタルウェルビーイングを強調しています。
充電が必要になる前に携帯電話を可能な限り長く動作させるために、Googleはバッテリーの耐久性をAndroid Pの大きな焦点にしています。Googleは、Deep Mindと提携して、適応型バッテリーと呼ばれる新しい機能を作成し、デバイス上の機械学習を使用して学習しますバックグラウンドで不必要に実行されているのではなく、Android Pが使用していることを認識しているアプリケーションにのみ使用習慣とバッテリー電力を供給します。 さらに、バックグラウンドプロセスも低電力コアに移行します。
Android P Betaハンズオン:最高の機能と最悪の機能
機械学習は、Adaptive Brightnessと呼ばれる別の新機能にも使用されています。 Android Pは、周囲の環境に基づいて明るさを手動で変更する習慣を学習します。Googleは、サービスのテスターが手動で明るさを大幅に変更することはないと指摘しています。
Android Pのランチャーに移動すると、Android Pは提案された「アプリアクション」を紹介します。 一番上にある推奨アプリの下に、Stravaで実行を開始する、特定の連絡先に電話をかけるなどの推奨アクションが表示されます。アプリアクションはGoogle検索にもあります。 映画のチケットを検索する場合、ファンダンゴアプリ内で注文するアクションが表示される場合があります。
Android Pがジェスチャーベースのナビゲーションシステムを導入すると噂されていましたが、まさにそれが私たちが得ているものです。 画面の下から上にスワイプすると[最近使ったアプリ]ページに移動し、最近開いたアプリやAndroidが開きたいと思うアプリを示す左右のカルーセルに表示されます。 もう一度上にスワイプすると、アプリの引き出しに移動します。
その他の便利な機能には、より良いスクリーンショット管理、自動回転がオフになっているときに電話をオンにしても画面を回転させるボタン、ボリュームコントロールが左側にあり、メディアボリュームがデフォルトになっている、Shushと呼ばれる新しいDo Not Disturbジェスチャがありますスマートフォンを上下逆さまにしたときにDNDをオンにします。
Android Pは、Nokia 7 Plus、OnePlus 6、Xiaomi Mi Mix 2S、Essential Phone、Sony Xperia XZ2、Oppo R15 Pro、およびVivo X21だけでなく、Pixel電話でも現在利用可能です。
最後に、より良いデジタルウェルビーイングの傾向に従って、GoogleはAndroid Pに新しいWind Downモードを追加します。就寝時刻をアシスタントに伝えた後、画面はグレースケールカラーに切り替わり、Doをオンにします。就寝時刻が転がったら邪魔しないでください。
Google I / O 2018のAndroid Pの新機能
チャットしましょう
Google Assistant
Googleは過去12か月間、Google Assistantで多くの進歩を遂げ、I / Oで、同社は今年後半に仮想アシスタントへの道を設定する多数の新機能を発表しました。 インドなどの新興市場ではアシスタントの使用が急増しています。Googleは、ローカルアクセントや方言の分析と認識を改善するために機械学習に注目していると述べています。
Assistantは5億台以上のデバイスで使用されており、2018年末までに80か国で30を超える言語をサポートします。また、6つの新しい音声が追加され、John Legendが注目に値します。 Googleは、可能な限りすべての音を録音する代わりに、完全な音声モデルを構築するために再びAIに注目しています。
Assistantに追加された新機能は、Continuous Conversationです。これにより、「Hey Google」ウェイクワードを毎回呼び出す必要なく、フォローアップクエリを要求できます。 アシスタントは、単一のコマンドで複数のアクションを実装することもできます。 最後に、Googleは子供向けの「プリティプリーズ」モードを展開し、丁寧な強化を奨励しています。 この機能は今年後半に公開されます。
また、アシスタントは表示応答用のフルスクリーンカードの提供を開始し、スマート家電の制御を容易にします。 さらに、スターバックス、ダンキンドーナツ、さらにアシスタントから直接注文することもできます。
新機能は、この夏の後半からAndroidでの展開が開始され、今年後半にはiOSでも利用可能になります。
Google I / O 2018のGoogle HomeおよびAssistantの新機能
コンピューターは「うーん」と言った
Google Duplex
すべてのI / Oには、少なくとも1つのアナウンスがあり、人々の顎が落ちます。今年は、そのアナウンスがGoogle Duplexでした。
Google Duplexを使用すると、Googleアシスタントに電話をかけ、実際にレストラン、美容院、または別のビジネスで別の人間と話し、予約/予約を行うことができます。
Googleは、Duplexと連携して、それをプッシュする直前に確実に機能させることを確認しており、今後数週間でそれが実験機能として段階的に展開されると述べています。
とはいえ、Googleが披露したデモはまっすぐなバナナです。 アシスタントは反対側の人に自然に話しかけ、応答するときに「um」や「uh」などのことを言ったりします。
強化。
Googleフォト
Googleフォトには、共有を簡単にする新しい機能が追加されています。 共有の提案は、機械学習を使用して写真内の人を認識し、自分の共有パターンに基づいてその人と共有するためのオファーを使用して、友達の最高の写真を見つけて共有するのに役立ちます。
新しい共有ライブラリ機能は、特定の人、物、場所の写真の共有を自動化するのに役立ちます。 共有ライブラリは、受信者に新しい写真を通知し、写真を個人ライブラリに自動的に保存します。これにより、誰の電話がどの写真を持っているかを心配する必要がなくなります。 共有とライブラリの提案は、今後数週間のうちにiOS、Android、およびWebで展開される予定です。
さらに、GoogleフォトはAIを使用して写真をさらに強化しています。 今後数か月以内に、Photosはドキュメントのショットを認識し、それらをPDFファイルに変換できるようになります。 また、明るさの自動調整を提案したり、古い白黒写真を色付けしたり、顔を認識したり、背景を選択的に彩度を下げて被写体をポップにすることもできます。
Google I / O 2018でのGoogleフォトの新機能
世界を見ましょう
Google Lens
Googleレンズは現在、写真とアシスタントで利用できますが、すぐに携帯電話のカメラアプリに直接統合される予定です。 GoogleのPixelスマートフォンに加えて、LG、Motorola、Xiaomi、Nokia、Sony、TCL、OnePlus、Asus、BQ、Transsion Holdingsデバイスのカメラにも追加されます。
カメラアプリを開いた後、オブジェクトにポイントすると、Googleレンズがポップアップし、表示されるものに関する情報を提供します。
また、Lensはスマートテキスト選択機能を備えているため、携帯電話のカメラで単語を確認し、通常のテキストとしてコピーおよびパテすることができます。 さらに、レストランのメニューのリストを表示し、それが何であるかを視覚化することができます。
最後に、Googleは、Lensが見ているものに関する基本的な情報を提供する以上のことを行っていることに注目しています。 一例として、同社はレンズをコンサートのポスターに向けると、そのバンドのミュージックビデオを自動的に表示できるようになると述べています。
レンズのこれらの新機能は、「今後数週間以内に」展開されます。
Google I / O 2018でのGoogle Lensの新機能
信頼できるソースとコンテキスト
グーグルニュース
Googleニュースは、マテリアルデザインの更新と多数の新機能を備えたアプリで、大きな変革を遂げています。 グーグルは、AIを活用して品質の高い情報源からのストーリーを明らかにし、ニュース製品を「再構築」したと述べています。
Googleニュースイニシアチブは、ニュース業界を支援するために3億ドルの製品とプログラムを約束しました。同社は、再設計の目標は、関心のあるトピックに関するより深い洞察とより完全な視点を提供することであると言います。 上部にブリーフィングセクションがあり、トピックごとに5つのストーリーが表示されます。トピックと関心のある発行元を調整できます。
画像と動画がインラインで表示されるようになり、Googleはローカルニュースに重点を置いて、関連ニュースのコンテキストマップを構築しています。 Newscastsと呼ばれる新しいビジュアル形式もあり、予告編、ツイート、ヘッドラインなどの追加情報を提供し、関心のあるテーマのビジュアルプレビューを提供して、より多くの情報に飛び込むことができます。
また、ストーリーの重要な瞬間のタイムラインを表示することもできます。Googleニュースは、関連するツイート、組み込みの事実確認、ビデオ、意見編集を提案します。
ニューススタンドでは、出版社(新聞や雑誌)を前面および中央に配置し、ニュース内から直接お気に入りの出版物をフォローおよび購読できるようになります。 Googleで購読する機能は、今後数週間で公開されます。
再設計されたGoogleニュースは、今日遅くに127か国でAndroid、iOS、およびウェブで公開され、誰もが来週新しい機能にアクセスできるようになります。
Google I / O 2018でのGoogleニュースの新機能
電話の使用量を理解する
Androidダッシュボード
スマートフォンと同様に、画面で迷子になり、周囲の世界との接触を失うのは非常に簡単です。 Googleは、Androidダッシュボードを使用して人々がより良い「デジタルウェルビーイング」を実現できるよう支援しています。
Androidダッシュボードを使用すると、Googleは1日を通して使用しているアプリ、使用頻度、携帯電話で費やした合計時間、ロックを解除した回数などを表示します。
さらに、YouTubeのようなアプリは、長時間動画を視聴し続けていることを検出した場合にユーザーが休憩を取るように提案することでも貢献します。
ダッシュボードデータもアプリごとに利用できます。 YouTubeは、特定の日にビデオを視聴した時間(分/時間)を表示でき、Gmailは、毎週または毎日、ビデオを視聴した時間を表示できます。
Googleでは、アプリタイマーを設定することもできます。 たとえば、Twitterでアプリタイマーを1時間に設定できます。 Twitterの使用時間が1時間に近づくと、微妙なリマインダーが表示され、その時間が経過すると、アプリのアイコンがグレー表示になり、残りの時間はアクセスできなくなります。
ビジュアルポジショニングシステム
グーグルマップ
Googleマップでは、検索履歴や興味に基づいて流行のレストランなどの場所を提案するためのパーソナライズされた推奨事項を取得しています。 間もなく、友人にレストランの選択肢の候補リストを送信して、投票してもらい、どこで食事をするかをすぐに決定できるようになります。 決定したら、ワンクリックで注文したり予約したりできます。
さらに印象的なことに、Googleマップはすぐにカメラと直接統合され、ナビゲーションの方向などの重要な情報をオーバーレイし、レストランやビジネスなどの興味のあるポイントを強調表示します。
Visual Positioning Systemは、Googleのストリートビューデータベースを使用して、最も正確な結果を得るためにユーザーを正確に配置します。つまり、これらの機能をほぼどこでも確実に使用できるはずです。 カメラを店頭に向けるだけで、営業時間や電話番号などの情報をすばやく確認できます。
Google I / O 2018でのGoogleマップの新機能
7月に来る
スマートディスプレイ
1月のCESに戻って、Googleはスマートディスプレイの最初の見方を示しました。これは、AmazonのEcho ShowとEcho Dotに対する同社の取り組みです。 I / Oで、Googleは、Lenovo、JBL、LGの最初のスマートディスプレイが7月に発売されることを確認しました。
スマートディスプレイはGoogleアシスタントを使用しているため、既にGoogle Homeや携帯電話に質問している質問はどれでも聞くことができます。 ただし、大画面が自由に使えるようになったため、Tastyとのパートナーシップのおかげで、スマートディスプレイを使用してYouTube TVでライブプログラミングを視聴したり、YouTubeアプリ全体にアクセスしたり、レシピのビデオデモを入手したりできます。
これまで以上にスマート
AI
Googleは数年前からAIに大きな賭けを行っており、今年のI / Oも例外ではありませんでした。 2018年、GoogleはヘルスケアとアクセシビリティにAIの取り組みを集中させています。
ヘルスケアの分野では、GoogleがAIを使用して、世界中の医師が網膜スキャンを実行して心血管疾患を発見および診断するのを支援しています。 AIは患者の目をスキャンすることで、年齢、性別、喫煙の有無などを判断して、これらの潜在的な健康上のリスクを見つけます。
さらに、GoogleはAIを使用して、すべての患者について100, 000を超えるデータポイントをスキャンすることにより、医療イベントを予測します。
アクセシビリティについては、機械学習を使用して、クリップ内のオーディオおよびビデオのキューを取得することにより、画面上の複数の人に同時にキャプションを作成します。 また、Gboardはモールス信号のサポートを取り上げて、より多くの人が友人や家族と簡単に通信できるようにします。
これらはすべて、Googleの最新のTensor Processing Unit 3.0によって部分的に強化されています。 新しいTPUユニットは非常に強力であるため、Googleはデータセンターに液体冷却を組み込む必要があり、各TPUバンドルには100 PetaFLOPSを超える処理能力があります。
Google I / O 2018のAIの新機能
次の全文を予測する
Gmail
Gmailは今月初めにユーザーインターフェイスを刷新し、Googleは現在Smart Composeを導入しています。 この機能は機械学習を活用して、ほんの数文字または単語に基づいて完全な文を予測します。
たとえば、住所を入力している場合、Smart Composeはコンテキストを認識し、文の場所の詳細を自動入力します。 この機能は、今月後半からすべてのユーザーに公開されます。
自動運転の未来
ウェイモ
I / Oで、Alphabetの自動運転車会社Waymoは、昨年の進歩に関する重要な統計情報を共有しました。 ウェイモの自動車は現在、公道で600万マイル以上走行しており、毎年平均的なアメリカ人ドライバーよりも多くのマイルを獲得しています。
ウェイモは、フェニックスのアーリーライダープログラムが昨年中に多くの人々を運転しており、人間の安全ドライバーを持たない公道で完全自動運転車を所有している世界で唯一の会社であると述べています。 ウェイモは、フェニックスから始めて、今年後半に無人輸送サービスを開始しています。
このサービスは、UberやLyftなどのライドシェアリングサービスと同様の方法で機能します。アプリを開き、目的の場所を選択します。 唯一の違いは、Waymoを使用すると、ドライバーのいない車があなたの場所であなたを迎えてくれます。
Waymoのディープラーニングアルゴリズムは歩行者検出エラー率を100倍削減し、同社はAI筋肉を曲げて歩行者を認識し、道路上の他の車両のパターンを予測しています。 WaymoのCEOであるJohn Krafcikが要約したように、「私たちは単により良い車を作るだけではありません。私たちはより良いドライバーを作っています。」