聴くチカラ研究所|4DL Technologies株式会社

【雑記】ChatGPTの立場に立って訊こう(笑)

作成者: 荒巻順|2024/04/28 3:50:54

今年のゴールデンウィークは10連休の方もいらっしゃるようで羨ましい限りです。2024GW二日目の本日28日もいつものカフェのいつもの席に座ってChatGPTで聴くチカラ研究所の記事を作っていましたが・・・

みなさん こんにちは《聴くチカラ研究所》の荒巻順です。ブログへのご訪問、ありがとうございます。

1.GW初日からChatGPTがなんかヘン

昨日27日にログインしたら「ChatGPTの画面が日本語表示していない」・・・当然入力は日本語でできましたので問題はないんですが本日になって大問題が。

1月から毎週ブラッシュアップしていた《4DL聴くチカラ研究所記事ジェネレータ》と名付けた、ブログ記事の下書きをするためのプロンプトが、突然言うことを聞かなくなってしまって参ったなぁというこぼし記事です。

もちろん、トンチンカンな記事を書くという話ではないのですが、構成や要約、そして記事の生成量が全くコントロールされていない感じです。

日本語は通じているし趣旨も理解している。しかし、細かい仕様が守られないという状況です。

※うちの代表に確認したら機能が修正された影響じゃないかとのこと → https://x.com/tomo_4dl/status/1784020845352112462?s=46

2.追加指示しても修正をしてくれない

いうまでもなく生成AIへの聴くチカラは《プロンプトエンジニアリング》です。自分の望む生成物を引き出すために、どれだけ具体的に指示が書けるかどうかです。

生成文ができあがってから「もっと詳細に状況を加味して」とか「もっとビジネス書風に」「あと何文字文字数を増やして」と追加指示を入れても全く言うことを聞いてくれない。

新しいチャット画面に切り替えても同じ様な生成しかしないので、これは指示の仕方を変えないとダメだなということでプロンプトの大手術を決行です。

3.生成AIはこういうときに悩ましい

皆さんもご存じかと思いますが、ChatGPTというか生成AIは、同じ指示をしても同じ答えは返ってこない特性があります。ここが一般的な情報処理システムとの違い。

一般的な業務用システムは、プロセスが固定されていますので、入力したモノが目的や指示に沿って正確に加工されて出てくる。

生成AIのLLMは数学としての関数で作られているが、それはあくまでもアルゴリズムに沿った予測をしている。その予測というのは一般的なプログラムのフロー処理ではなく「数学的近似値の文字のマッチング」でしかない。← 専門家からの突っ込みナシでお願いしますね(笑)

旧プロンプトで生成した文章のイチバンの出来の悪さは「構成」でした。ユーザーサイドで変えられるのはプロンプトしかありません。

4.ひとまとめだったプロンプトを再グルーピングしたら動き出した

人間への指示とは違って生成AIは、行間のニュアンスや暗黙の要求は読み取りません。プロンプトエンジニアリングの基本は《明確・詳細・具体》につきます。

旧プロンプトでは文章の趣旨に違和感ははありませんでした。

修正をするにあたっての予測としては「誰に(読者)」「とんな内容(テーマ・ニーズ)」「どんな展開(ストーリー)」の指示は通じていると判断です。

旧プロンプトの構成は「生成の目的と背景」「読者の定義と粗筋」「文章の生成仕様」という3段階でした。この構成でGW前までは合格点を出してくれました。

3段階のプロンプトのうち前段2つは問題ないだろうと判断して最終段階の「文章の生成仕様」を書き換えてみました。

元々はひとまとめにしていた「文章の生成仕様」プロンプトを「テーマ内の構成と定義」「文章全体の文体定義」「生成物としての定量的定義」という3段階に書き換える。

その3段階のプロンプトも、順番を何回か入れ替えることでやっと意図する記事生成になったなと胸をなで下ろしました。

相手は人間ではないので、感情的な反応はしてきません。こちらが思い通りにならないことに、ネを上げずに何度でもチャレンジすることにつき合ってくれるのは本当にありがたいなと思います(笑)

5.まとめ

プロンプトはこちら側の意図です。ChatGPTを操るためにはその意図を理解させる《聴くチカラ》を色々な角度からつくる。言い方を変えると相手に合わせて《訊き方》を変える必要があるなと言うことですね。

相手の理解が悪いのではなく、こちらの《訊き方》が悪いという前提にたって、質問を変えてみる。そのためには「自分の意図を再整理して」「訊き方を再構成する」。

こんなコトで解決しました。

たぶん、これ、現在の仕組みの生成AIとつき合う上で、ずっと求められそうな気がします。

結論は「求める答えが出てこないのはアナタの訊き方が悪い」ということです。ChatGPTの立場に立って、プロンプトエンジニアリングのスキルを磨いていきましょう。

人間世界と同じですね、結局(笑)