絶対心理安全なChatGPTパイセン

2023/5/28作成

ChatGPTはエンジニア不足問題を解消する銀の弾丸か?

タイトルだけ読んで、ああChatGPTに自動プログラミングさせればITエンジニアいらなくなるってよくある主張かなと思ったんですが、中身を読んでみると全然そんなことはなかった。失礼いたしました。

ざっくり要約すると、なにを質問しても絶対に怒ることなく適切な答えを返してくれるChatGPTを使えば新人エンジニアの育成に有益ではないかということですね。

質問力というのは大事なスキルです。社会人になったら早い段階でこの力を身につけていくべきですね。って、偉そうに書いてる私は実は質問するの苦手で、聞けばすぐにわかることを延々と自分で考えてしまって時間を無駄にすることが多々あります。だめじゃん。って、私がだめだめなのは今に始まった話ではないので横に置いておいて。

ともかく質問というのは大事なんですよね。これは新人に限ったことではなくベテランでもそうです。どんなベテランでも全知全能ではないので、知らないことはあります。知らないことがあったときに、知ってる人に質問するのは、組織で仕事をしている限り絶対に発生することです。必要な時に必要な相手に適切な質問をできるからこそベテランであると言えるかもしれません。

そんな大事な質問ですが、質問された側が必ず快く答えてくれるとは限りません。質問された側が知らないというのならともかく、そんなことをいちいち質問してくるな自分で考えろって怒ってしまう先輩もいます。そんな対応を何度かされたら、質問する側は萎縮してしまって次からは質問できなくなってしまいますよね。つまり、そこには心理的安全性がないわけです。

真摯に答えてくれる人だとしても、同じ質問を何度も繰り返していると、前にも言っただろと一言いってしまったりします。それ自体はもっともな話ではあるのですが、現実問題として質問者は前に聞いた答えを忘れてしまっていて、今困っているわけですから教えて貰わないと仕事が出来ないんですよね。そして、前にも聞いたことだから叱られるのが怖くて質問が出来なくなってしまうこともあるでしょう。どっちにしても、ここにも心理的安全性がないわけですね。

一方、冒頭の記事にあったようにChatGPTはどんな質問をしても絶対に怒りません。以前と同じ質問を繰り返しても怒りません。同じ質問を100回繰り返しても、ちゃんと100回回答してくれます。絶対的な心理的安全性があるわけです。すばらしいですね。これなら叱られることをおそれて質問しなくなることはなく、質問し放題です。確かにこれで救われる人も多いでしょう。

ちょっと話がそれますが、近年技術の進歩により機械が人間の相手をすることが増えてきました。ファミレスでは配膳をロボットがしますし、注文はタブレットからです。ユーザサポートのチャットボットはAIほど賢くはなく中身はエキスパートシステムですが、それでも十分に役に立っています。これらの機械導入は人手不足であったり人件費節約であったり、またカスタマーハラスメント対策の一環という面もあったりします。企業や従業員の視点からはそうしたメリットがあるわけですが、一方でユーザ側としても人間相手のように気を使わなくてよいので楽という面もあるわけですよね。もっと遡れば自動販売機だってそうですよね。どのドリンクにしようか延々と考えたって機械は全く問題ありません。後ろに並んでる客がいたら怒られますけど。極端な例ではエロマンガを書店で買うのは恥ずかしいけど、自動販売機ならその心配がないとかもありますかね。

ということで、人間と人間のコミュニケーションというのは、人類を人類たらしめた大事なことなのですが、一方で人間にとって大きなストレスでもあるということですよね。一方的にストレスってわけではないんだけども。ストレスになるときもある。一人で居る方が気楽とかもそれに近しいですけれども。そんなストレスを現代は徐々に機械を相手にすることによって解消しつつあると。機械相手のコミュニケーションばかりとるようになって、人間同士のコミュニケーションが廃れてしまった社会というのはSFの定番のネタの一つですが、現代社会はそんな時代に向けての一歩を踏み出したところなのかもしれません。

と、コミュニケーション論人類論に話を発展させてしまいましたが、もとに戻しまして絶対真理安全ChatGPTパイセンです。確かに質問には必ず答えてくれるのですが、問題がないわけではありません。

ChatGPTが嘘をつくことがあるとか、最新の情報は知らないとかはありますが、これ自体は現状のChatGPTの問題であって、技術の進歩で解消もしくは改善される問題かと思います。

ChatGPTは公知の情報しか知らないという問題はあります。特定の組織内のローカルな情報は知らないんですね。うちの会社の経費精算の方法を教えてと質問しても、教えてくれないですよね。これについては各組織がローカルのAIを設置することで解決可能ではあります。社内の手続き集などを学習させるわけですね。その他にも共有サーバにある文書ファイルであったり、掲示板システムの投稿であったりと、組織ローカルの学習に使えるテキストはいろいろありますよね。そういったものを使って独自の言語モデルを構築すればよいかと。おそらく今後こうしたローカル言語モデル構築サービスというのは雨後の竹の子のように出てくるのではないかと思います。

最後に残る問題は、質問する側の質問力です。なにがわからないのかを具体化してくれないと、いくらChatGPTパイセンでも答えられせん。「なにがわからないかわかないけど困ってます」って投げかけても、役に立つ答えが返ってくるとは思えませんね。つまり、自分が何がわかってないか、それを整理分析するというのは質問する側が行うしかないわけですね。

ChatGPTも質問の仕方によって回答に違いがありますので、どう質問するかが今後の必須スキルだと言われてたりしますし、それをプロンプトエンジニアリングと呼んだりもしています。それも大事なことではありますが、それ以前として自分が何を知りたいのかを整理するのも大事なことではないかと思います。これって、一つ前の時代のぐぐるスキルでも同じことだったんですよね。キーワードの選定だったり絞り込みや除外キーワード設定など様々な検索スキルがあるわけですが、そもそも自分が何を知りたいだってのは、Google先生だって知りようがなかったわけです。Google先生と同様、ChatGPTパイセンもやっぱり知りようがないわけですね。