ChatGPTにユーザーがカスタマイズできる機能が実装予定
OpenAIの対話型AIモデル「ChatGPT」にユーザーがカスタマイズ可能な機能が実装予定という情報について紹介しています。
ユーザーがカスタマイズできる機能が実装予定
OpenAIの公式ブログの記事によれば、ユーザーが「ChatGPT」の動作を簡単にカスタマイズできるように、ChatGPTのアップグレードを開発中とのことです。
カスタマイズといえば、OpenAIのAPIにあるような言葉の揺らぎやランダム性、あるいは言語モデルの選択などが考えられますが、記事を読む限りはそれらとは違うという印象があります。
We believe that AI should be a useful tool for individual people, and thus customizable by each user up to limits defined by society. Therefore, we are developing an upgrade to ChatGPT to allow users to easily customize its behavior.
和訳:私たちは、AI は個人にとって有用なツールであるべきであり、社会によって定義された限界まで各ユーザーがカスタマイズできるものであるべきだと考えています。 そのため、ユーザーが ChatGPT の動作を簡単にカスタマイズできるように、ChatGPT のアップグレードを開発しています。
How should AI systems behave, and who should decide?
「社会によって定義された限界まで各ユーザーがカスタマイズできるものであるべき」との言葉から、察するにChatGPTが出力する文章そのものというより、その意味や方向性を念頭に置いているようです。
確かに、国や地域によって文化も違えば憲法、宗教の扱いの問題もありますので、世界共通の設定でAIが会話するというのには限界がありそうです。
また、続けて以下のように記載されています。
This will mean allowing system outputs that other people (ourselves included) may strongly disagree with. Striking the right balance here will be challenging–taking customization to the extreme would risk enabling malicious uses of our technology and sycophantic AIs that mindlessly amplify people’s existing beliefs.
これには、他の人 (私たち自身を含む) が強く反対する可能性のあるシステム出力を許可することを意味します。 ここで適切なバランスを取ることは困難です。カスタマイズを極端に行うと、私たちのテクノロジーや、人々の既存の信念を無意識に増幅するおどけた AI の悪用を可能にするリスクあがあります。
How should AI systems behave, and who should decide?
上記の文章に「限界までカスタマイズできるものであるべき」とありましたが、開発中の段階でカスタマイズ機能を実装する事に大きなリスクを伴う事に言及しています。
現状のなんとかバランスを取った回答では、日本語の表現でいうところの、のらりくらり、といった当たり障りのない回答になってしまうケースが多いですが、価値観が違えば、それすらも到底受け入れられないユーザーも少なくないはずです。
There will therefore always be some bounds on system behavior. The challenge is defining what those bounds are. If we try to make all of these determinations on our own, or if we try to develop a single, monolithic AI system, we will be failing in the commitment we make in our Charter to “avoid undue concentration of power.”
したがって、システムの動作には常に何らかの制限があります。 課題は、それらの境界が何であるかを定義することです。 これらすべての決定を自分たちで行おうとしたり、単一のモノリシックな AI システムを開発しようとしたりすると、憲章で「権力の過度の集中を避ける」というコミットメントに失敗することになります。
How should AI systems behave, and who should decide?
そして、価値観の差をどうにかする事に、運営はシステムは用意してもその基準を決める事はしない、と。
ユーザーによる設定とフィードバックでAIが学習していく仕組みにするらしいですね。
AIの認識に運営側の人間が持つ思想や善悪の判断基準が入り込む事は、良しとしない方向性のようです。
価値観をカスタマイズできるようになったらどうなるのか
現在のChatGPTは、使っていると確かにある種の一方的な方向性があると感じることもあります。
それはトレーニングデータに活用した多大な情報から、一般的と判断した考えをAIが採用しているものと思います。
しかし、そもそもインターネット上の情報だけで、本当の一般論を推し量れるかも難しいところなのかもしれません。
どうしても、インターネット上では声が大きい人たちの主義主張の方が数が多く、AIにとっては大きい声の方を常識論と認識する方向に働いてしまうはずです。
例えば、ChatGPTは様々な多様性の話題、ジェンダー平等なんかの会話も可能ですが、とにかく尊重をといった内容で返ってきます。
平等性にはきっちりしていそうな雰囲気ですが、男性・女性双方の浮気について話をChatGPTに作って貰うという検証ではー
浮気を相談した場面
- 男性が浮気されたバージョン → でも自分にも浮気された原因があるかもしれないんだ。
- 女性が浮気されたバージョン → 浮気されたのはあなたが悪いわけじゃないわ。
浮気した相手から逆に慰謝料を請求された場面
- 男性が浮気されたバージョン → 不公平だとは思うけど。それが現実だよ。
- 女性が浮気されたバージョン → そんな馬鹿なことがあるわけないわ。
といった、とても平等とは思えない内容になってしまいました。
ランダム性の誤差の可能性もありますし、少なくともインターネット上の情報量がそうさせたのかな、と考えます。
関連:ChatGPTに「サレ妻になったらすべき10のこと」を考えて貰った結果 | ONE NOTES
ユーザーによっては、多様性や平等性といった概念が全く通じない場合だってあるでしょうし、難しいのでしょうね。
私でも身体的には男性の女性が女性専用車両、女性用トイレ、女湯などを利用する事に違和感、内容によっては嫌悪感を感じる場合だってあると思います。
逆に身体的には女性の男性が銭湯で男湯を利用するケースでも、その場に居合わせたら正直、困惑しかないかもしれません。
多様性とは、こういった声も多様性の中のひとつなのです。
多様性や平等性については、カスタマイズ可能なひとつの要素に過ぎないはずですが、これらをユーザー側で調整できるようになるのは、何か創作物の補助に使いたいケースなどで、メリットも大きいように思います。
限界までカスタマイズの「限界」には流石に「暴力」「薬物」「自殺」「性的犯罪」などの表現制限などは含まれているでしょう。
私みたいにバカなこと言わして遊んでいるだけならカスタマイズは大歓迎ですが、偏った思想や差別的思想の許容まで、どんどんカスタマイズ可能にするのであれば、少々怖い気もしますね。
ディスカッション
コメント一覧
まだ、コメントがありません