「プロンプトエンジニアを1人雇えばいいじゃないか?」という社長の発想が間違っている理由
*上の画像はMidjourneyで、枕草子の冒頭の春の部分をDeepLで英文にし、それをMJのプロンプトとして入れて生成したもの。
以下は、小生が管理人を務めているFacebookグループの「ChatGPTのビジネス活用を探っていく勉強会(含むBARD, Midjourney)」に書いた内容です。(現在メンバー数150名。200名になったところでメンバー募集を打ち切ります。)たぶん、本質的な意味を含んでいるテキストだと思うので、こちらにも掲げます。
○
ChatGPTのような大規模LLMは、構造が、人間の脳の反映です。これは少し関連の資料などを読むと理解できます。なので、話を短くすれば、ChatGPTが吐き出すアウトプットは、「自分の脳の反映」だと思えば良いでしょう。いくつかのロジックのステップを端折って言えば、です。
○
ChatGPTを長く使い込んだ人は、ChatGPTが、ある質問にはうまく答えるが、別な質問にはうまく答えないだろう、という推察ができるようになります。これは、自分の脳が、ChatGPTの脳の構造に最適化されたからです。ChatGPTがうまく使える人は、質問をする前に、ChatGPTの回答をある程度シミュレートできる人です。ChatGPTの脳の中身がある程度わかっている人です。
○
一方で、ChatGPTを使い込んでいない、例えば、会社の社長は、ChatGPTの脳の中身をシミュレートできません。従って、ChatGPTに対して、非現実的な要求をしたりします。
○
今、経営課題の解決のためにChatGPTを活用しようとした会社の社長が、「プロンプトエンジニアを1人雇って、彼にどんどんChatGPTを使わせよう」と考えたとします。しかし、これが、根本的な誤りであったということに、後に気づくことになります。なぜか?
○
訓練されたプロンプトエンジニアは、長いことChatGPTを使い込んでいますから、上に記したようなChatGPTの脳内をシミュレートして、良い回答が引き出せるものと、質問しても大した回答にはならないものとが、事前にわかります。
しかし、雇った会社の社長はそれがわからない。ChatGPTについて誤った理解をしているからです。自分で使っていないから根本的に誤っている。
○
社長が、ロンプトエンジニアに、「この雑誌にはこれこれこう書いてある。だから、ChatGPTから、これこれこういうアウトプットを引き出してくれたまえ」と命じます。
しかし、プロンプトエンジニアは、それを聞いた瞬間に「あ、これはまずい。この事柄はChatGPTがうまく対応できない可能性が高い」とわかる。
しかし、雇われていますから、社長の命令には従って、プロンプトを色々と工夫して、アウトプットを得ます。
そのアウトプットは、社長を満足させない。
○
このようなことが繰り返されます。だんだんとプロンプトエンジニアを雇った社長のフラストレーションが溜まります。
○
なぜ、このようなことが起こるのか?それは会社の社長がChatGPTを使い込んだ経験がないために、自分の脳がChatGPT用に最適化されておらず、間違った要求ばかりするからです。
○
ということで、ChatGPTは、経営者本人が使いこなす必要がある。意思決定者本人が使いこなす必要がある。そうして自分の脳を、ChatGPT用に最適化していく必要がある。そのようなことができる経営者は、他社を20倍上回るパフォーマンス(イメージで言えば)を示す会社へと自社を変革していくことができるでしょう。