週末は11/13の新事業支援センター、11/22の名古屋商工会議所のセミナー資料の最終調整です。
生成AI関連はすぐに進化をしてくれているのでついていくのが本当に大変です。

ChatGPTはDALL-E3が使えるようになって盛り上がっている感じです。
ChatGPTから会話でDALL-E3の画像を修正できたり、文字を生成画像に入れられたり…と素晴らしいところも多いです。

ただ、自分の仕事的にはそれほどAIが生成した画像を使う機会はめったにないです。
正直ってどんな画像生成AIより、「いらすとや」のタッチの方が好きで、そこから選ぶのが結構楽しいです。

自分が期待しているのは、「画像自体を生成する」ではなく「画像を元に生成する」方です。
例えば、代表的なのは「ホワイトボードの手書き文字起こし」です。

これに関しては「目を持った」といわれるGPT-4Vよりも、GoogleLensをもったBardの方が圧倒的に使えます。
GoogleLensに関しては、自分もこれまでずっと使っており、その信頼感は高いです。

…なので、「ホワイトボードの手書き文字起こし」は基本的にBardを活用しています。
GoogleMapsにもGoogleLensが載るそうで、写真の風景から場所の候補を教えてもらえるのは嬉しいです。

特に酔っぱらって電車を乗り過ごして「ここはどこ?」になったときに使ってみようと思っています。
まぁ、GoogleMapsで現在地を調べればいいわけですが…。

「画像を元に生成する」で有益な使い方ももちろんあります。
例えばLPやプレゼン資料を画像キャプチャして、「人が感覚的に間違えそうなところは?」ときくと、あくまでも見た目の問題を指摘してくれます。

ただ、これは「Bard」よりも「GPT4-V」の方が賢い助言を戻してきてくれます。
わーっと出てきた生成AIはどれも魔法の道具ではなく、人の作業を側面支援してくるツールです。