スマートフォンが何の写真を撮っているか、解析する力が高くなっています。スマートフォン内のアプリも分かるのですから、そこから色々とできるのではないかと思います。
世の中の多くの方々は、とりあえず何でも写真を撮るのではないかと思います。それも家族の写真、食べ物の写真、飲み物の写真だけではなく、本当に何でも撮ります。例を挙げると、駐車した場所、街の地図、買ったもの、買いたいもの、観たい映画の広告、レシート、などなど。そして、最近はスクリーンショットも撮るようになりました。
スクリーンショットは特に便利と感じています。ネットで買った映画のチケット情報やQRコード。地図のスクリーンショットを撮って地図アプリではなく画像を使うとか、その地図の写真を人に送るとか。
過去の写真はその希少性から特別でしたが、今や写真は何ともない感じでしょうか。ビジュアルなメモ、といったところでしょうか。実際にメモ帳にメモるより覚えてそうですしね。私は20年前からカメラを持ち歩いていましたが、当時は本当に少なかったと思います。
それが今や一つのものに何十枚でも何百枚でも写真を撮ることができます。スマートフォンで。
その次に、写真は強い味方を得ます。クラウドです。写真のストレージに安価で便利なサービスです。写真を多く撮るがために、それらの写真の整理が大変になりました。(とは言え、そう行った問題のサービスもたくさんある訳ですが)
スマートフォンとクラウドの処理能力に任せて色々と解析できるのではないかと常々思っていました。ARではなく、『Reality』の部分を使ってまだまだできることがあるのではないでしょうか。例えばですが、ある本の写真がカメラロールにあったとして、その写真をタップすれば本の著者の他の本が調べられたり、今いる場所から最も近い本屋を検索できたり。ARの『拡張現実』ではなく、『深層現実』な位置付けです。
もう一つは、カメラで写真を撮れば瞬時にその写真に関連するアプリを起動する機能があれば面白いと思います。今ではQRコードの写真を撮ると自動的にアプリが立ち上がるのと同じで、写真の内容を解析してアプリを起動するとか。せめて写真アプリからワンタッチでそれが可能になるとか。
Google Lensがその方向に進んでそうですが、もうちょっとこの案が流行ってもいいと思っています。
カメラアプリがハブとなって、インストールしてたアプリを立ち上げてくれたり、写真の内容からダウンロードすべきアプリを提案してくれたりしたらいいかもしれません。それ程にカメラアプリを使うのでだと思います。