さすが話題になっているだけあって、いろいろな場面で「ChatGPT」の話題になることが多いです。
「GPT」のAPIが3/2に公開されたことで、LINEなどでも一気にいろいろなサービスが立ち上がってきています。

一方で、ChatGPTは情報が古いし、嘘も言う(間違う)から使えない…なんて声も聴かれます。
情報が古いのは、大規模言語モデル(LLM)の「GPT」がバージョンすれば解決されます。

わかりにくいかもしれませんが、大規模言語モデル「GPT」を会話形式で誰にでも使えるようにしたのが「ChatGPT」です。
「GPT」を誰にでも使いやすい「ChatGPT」のサービスにして、世間にAIの進化を知らしめたことがスゴイと思います。

誰でも使えると言う一方で「使えない」なんて声も聞こえます。
会話型AIで、自分の意図する回答をもらうには「質問力」が必要です。

質問が曖昧であれば、曖昧な回答が来るのは当たり前です。
これは人も同じで、メンバーが思うように動いてくれない…って場合に、指示の出し方がよくないことがあります。

曖昧な指示で、思い通りにメンバーが動くなんてことはないです。
メンバーの能力が相当高くて(忖度できて)、言わない想いまで汲み取ってくれるなら話は別です。

ただ、今のところは「ChatGPT」のような会話型AIは相手の表情やその場の空気は読めないものです。
直に表情を画像認識が読み取ってどこまで理解しているかを考えてくれるかもしれませんが…

そうなってくるとローコンテクストに慣れている人たちの方が、会話型AIへの質問が上手いような気がします。
ハイコンテキストである日本人は会話型AIへの質問が苦手かもですね。

コミュニケーションには、「相手に想い(感情)を伝えるもの」と「相手に自分の思考を再現してもらうもの」があります。
ビジネスでも、報連相では「相手に自分の思考を再現してもらう」コミュニケーションが大事です。

会話型AIが答えやすい質問を投げる技術「プロンプトエンジアリング」では、「論理的思考力」が差となって出てくると思います。
ただ、実際に「ChatGPT」へ質問をする際には、3つを気をつけて質問をすればいと感じます。

ひとつは「質問の意図を含めて質問する」で、ひとつ「前提条件を加えて質問する」です。
これらはより具体的な質問をするということです。

また、もうひとつが「掘り下げて質問する」です。
これは、意図しない回答が返ってきた時に、それを伝える再質問で、回答を意図する方に導いて掘り下げることです。