ぼや川より
スッピンに・どなたですかと・聞くスマホ
・・・だす・・・
世情にうといワタスが記事の題目を見て、グーグルがレンズもつくるんだ~
なんて・・・
グーグルは昨年の開発者向けカンファレンスGoogle I/Oで画像検索サーヴィスのGoogle レンズを発表
画像を見つけるために文字情報を入力するのではなく、犬や植物などにスマートフォンのカメラを向けると文字情報が示される
カメラは入力デヴァイス・・・
検索、コンピュータヴィジョン、人口知能(AI)、拡張現実(AR)といった要素を組み合わせ、まとめてアプリに落とし込む
しかもその機能は、単一のエコシステムにとどまらず広がりをもっている
今年のカンファレンスではレンズの大きなアップデートが明らかにされた
ショッピング、読み上げ、言語サポートなどの分野を強化
そしてレンズの普及を促進するため、メーカーにはレンズをカメラのネイティヴアプリとして提供することが求められている
5月末に行われる予定のアップデートは、グーグルの次のステップを象徴している
AR・仮想現実(VR)・ヴィジョンベース検索製品担当副社長のアパーナ・チェンナプラガダ氏は携帯電話のカメラを
「世界を検索するときの視覚的なブラウザーのようにする」
「わたしたちはいまや、何でも条件反射的に写真を撮るようになっています。美しい日の入りや自撮り写真だけでなく、駐車場でどこにクルマを止めたか、名刺、読みたい本など、本当にあらゆるものを画像で記録しています。行動様式の巨大な変化が起きているのです」
レンズはこれまで、GoogleアシスタントやGoogleフォト経由でアクセス
今回のアップデートにより、ASUS、モトローラ、シャオミ、OnePlusなどが出す10機種以上のAndroid端末で、カメラを開けばそのまま使える
LGのThinQシリーズの最新モデルLG G7 ThinQには、専用の物理的なボタンまで用意
専用ボタンがない機種では、カメラを開くとスクリーンに動画撮影などのアイコンと並んでレンズを起動するアイコンが表示
アップデートでもうひとつ大きいのは、レンズを開くとシステムがカメラに映っている空間を自動的に検索し始める
グーグルのVR・AR担当副社長クレイ・ベイヴァー氏
「ユーザーは何の答えが欲しいのか明確にわかっているわけではないということがわかりました。ですからユーザーが写真を撮るのを待つ代わりに、レンズのリアルタイムという機能を使って空間をスキャンするわけです」
スキャニングが完了すると、システムが検知した物体にARの青いドットが表示
そのドットに触れると検索が行われる
ネイティヴアプリとして組み込んだり、リアルタイム機能を付けたりすることで、ヴィジュアル検索をより速くスムーズに動かすことができる
もちろんグーグルの検索システムでは、すべての情報はインデックス化されている
子犬の血統もレストランのメニューも、洋服の在庫や外国語でさえ、きちんと整理されている
では、それをレンズのヴィジュアル検索に反映させるのが難しいのは?
チェンナプラガダ氏
コンピューターヴィジョンからの情報に状況に応じて対応するのは、非常に複雑なタスク
なぜなら、視覚を使って世界を感知するときモノは
「まとまりがなく、ノイズの多い状態」に置かれている
「画像認識アルゴリズムには、これまでもコンピューターヴィジョン技術を使ってきました。ただし非常に慎重にです」
ベイヴァー氏
「世界にはおびただしい数のものが存在するため」
「英語には約18万の単語がありますが、日常的に使われているのは3,000~5,000語にすぎません。ですから音声アシスタントのようなプログラムで認識しなければいけない対象の集合は、比較的小さいのです」
「一方で、世界にはどれだけのものがあるか考えてみてください。数十億は下らないでしょう。形も大きさもさまざまです。ヴィジュアル検索における問題は、文字や音声検索と比べてはるかに巨大なのです」
フェイスブックやアマゾン、アップルといった競合のテック大手も同じ問題に取り組んでおり
独自のヴィジュアル検索プラットフォームを構築したり、画像認識を手がける企業を買収したりしている
昨年2月には、Pinterestでカメラを使ったヴィジュアル検索が可能になった
ピンタレストの技術はサムソンのBixbyでも使われている
大手だけでなく、スタートアップもこの分野に
ARアプリのBlipparは、花や有名人、有名な建物などを認識できる
高校生ですらスマートレンズを使ったアプリをつくり始めた
グーグルには、偏った見方をしたり不適切な結果を出したりすることのないアルゴリズムを組み上げることができるのか?
単純に見える物体でもほかのものと間違えられる可能性は・・・
チェンナプラガダ氏
ヴィジュアル検索の正確性を担保するために
「レンズの開発で最も重視したのは、エラーが起きた場合にシステムに原因を理解させるということです。間違いを減らすのに役立つ改良を重ねるためです。検索や文字入力のオートコンプリートシステムも、同様の哲学で開発を行っています」
レンズが複雑な問題を解決するのは「何年もかかる旅」の一環だ
世界に存在する数十億のものをすべて認識して理解することは困難だ・・・
・・・レンズが起動してると
ナニにスマホを向けて画を見てるか・撮ろうとしてるか
たぶんグーグルは知ることができる
ソレを記録する誘惑をグーグルがガマンできる?
ってか・ソレを貯めてデータ化して使うことでもメシ喰ってるもんな~・・・
ついでに
メイドインチャイナのNECとかのパソコンとかスマホから
人民解放軍にイロイロ盗み見されてる?・・・
今日は~
タツタソウ/Jeffersonia dubia
のサビ病
見かけたら速攻でハッパをチギる
初期段階で取り去れば薬はいらない
サビ病といえば
ウチはシュンランにも来るんだよな~
0 件のコメント:
コメントを投稿