正直おなか一杯の「ChatGPT」情報ですが、大規模言語モデル「GPT4」のAPIの公開やのバージョンアップなど話題に事欠かないです。
そこからの派生で「Microsoft365Copilot」やAPIを活用した様々なサービス開始もスピード感に溢れています。

更にGoogleの大規模言語モデル「PaLM」が発表され、GoogleWorkspaceへの搭載、APIの公開がアナウンスされてます。

Googleと言えば「ChatGPT」に対抗するはずの会話型AI「Bard」っていつから試せるのでしょうね。
「Bard」の大規模言語モデル「LaMDA」は「PaLM」より世代が古いので、Googleとしては単純な会話型AIのサービスを出す必要性も薄くなったのかもしれないです。

他にもメタ社の「LLaMA」のように大規模言語モデルはたくさん出てきています。
大規模言語モデルをいかにして利用シーンまで提案するサービスとして創り上げ、世に広げるか…の方が大切になっていると感じます。

そういう意味では、大規模言語モデル「GPT」の活用提案として「ChatGPT」に落とし込んだOpenAIは凄いと思います。
難しいものであってもそれを簡単に使え凄さが分かるような提案、ツールはいつも歓迎されます。

そんな中、AIがこれだけ進化すると人の仕事が奪われてしまう…という話もよく出てきます。
それは人がより人としての意識が問われる時代に入ってきているとは感じます。

例えば、盛んにYoutubeやネットで発信されている「ChatGPTをそのままコピペすればOK」といった時点でAIに隷属して人としては終わっています。
AIは人の考え・意見・思想から学習をしています。

人が「AIの言うことをきいていればOK」となった時点、つまりは人が自分の考え・意見・思想までAIに委ねた時点でAIは学習ソースを失います。
ある意味、人とAIの共倒れです。

これからは「AIに任せて考えない人」と「AIとコラボしてより深く考える人」に二極化すると思います。
AIのおかげで「作業」は楽になるかもしれませんが、思考する「仕事」はより難易度が上がっていきます。

AIの出したすでにレベルの高い成果物を、より自分の経験や体験からブラッシュアップしないといけないわけです。
さもないと人の心には響かないし、AIにとっても「学ぶべき価値のないもの」と認識されてしまいますね。