ChatGPTは極めて高性能な対話型AIです。
その技術はインターネットやスマホと並ぶほどのインパクトを持つと言われています。
しかし一方で、その安全性・危険性についてはいまだ多くの懸念が残っていると言わざるを得ません。
実際、うかつな使い方をすると社会的・経済的に大きな損害を被る危険性があるのは事実です。
そこで今回はChatGPTの安全性・危険性について分かりやすく解説していきます。
ChatGPTの安全性・危険性を分かりやすく解説
ChatGPTの安全性・危険性の概要
ChatGPTはプライバシーを侵害する危険性があるなど批判も多く、それを受けて開発元のオープンAI社は以下のような6つの視点で対策を公表しました。
・動作の安全性
・不正利用
・子どもの保護
・プライバシーの尊重
・正確性
・継続調査
最後の「継続調査」は総合的な考え方のようなものですが、それ以外はChatGPTの安全性に対する指摘にそれぞれ対応しています。
そこで今回は上記の5つの項目に分けてChatGPTの安全性・危険性について解説していきます。
ChatGPTの安全性・危険性【動作】
まず、ChatGPT自身の動作の安全性です。
これについてはユーザーとしてなにかをする必要はありません。
一般公開している以上、すでに十分に動作の安全性は担保されています。
また、最新モデルのChatGPTであるCPT-4についていえば、システム完成後もさらに一般公開前に6ヶ月以上の調整作業をおこなっているとのこと。
ただし、一般的な工業製品に比較すればその安全性・危険性は未知数です。
というのも、ChatGPTのようなAIに対する安全性評価の規格はないからです。
ここは開発元のオープンAI社も承知しており、今後は厳格な安全性評価が必要だと明言しています。
ChatGPTの安全性・危険性【不正利用】
ChatGPTは画期的なサービスゆえに日々新しい使い方が発見されています。
その中にはもちろん他社の財産や健康を脅かすような危険性を含むものも存在します。
こうした使い方の安全性に関しては、不正使用を監視して対策を講じるとのことです。
すでにMicrosoftのBingへ搭載されたように、ChatGPTは今後さまざまなアプリケーションへと組み込まれていくと思われます。
それらを使うときは一定の監視が付いていると考えておきましょう。
なお、オープンAI社自身はこうした人の手によるChatGPT悪用の危険性をすべて「未然」に防ぐのは限界があるとしています。
個人としては、ChatGPTにはそうした悪事に利用される危険性があるということを常に意識しておくべきでしょう。
ChatGPTの安全性・危険性【子どもの保護】
ChatGPTは子どもへの安全性を極めて重要なものと位置づけています。
ルールとしてはChatGPTは18歳以上からしか使えません。
しかし、多くの検索エンジンがそうであるように実際には未成年であっても簡単に利用できます。
その点、ChatGPTは子どもへ悪影響を与える危険性の高い回答を控えるよう、当初より徹底して作られています。
また、最新モデルのGPT-4ではGPT-3.5に比較して、倫理的な問題のあるリクエストへ応答する可能性が82%低下しているとのことです。
総じて、ChatGPTの子どもに対する安全性は十分以上に担保されているといってよいでしょう。
ただ、逆に言うとChatGPTはそうした倫理的な問題のあるコンテンツには非常に弱いということでもあります。 AIが人の仕事を奪うとはいわれがちですが、少なくともそうした分野については確実に人の領域として残ることでしょう。
ChatGPTの安全性・危険性【プライバシーの尊重】
ChatGPTはプライバシーの安全性を脅かすともよく言われます。
ChatGPTの学習リソースは主にウェブ上のコンテンツと、ChatGPTへのリクエストです。
したがって、そこに個人情報が含まれている場合、ChatGPTの回答経由で個人情報が拡散してしまう危険性があります。
ここはもちろんオープンAI社も承知しており、適宜、個人情報を削除するようなモデル調整をおこなっています。
また、個人からの情報削除要求にも応じるとのことです。
とはいえ、やはりそれでも個人情報が外部へ漏れる危険性は残ります。
プライバシーの安全性を考えるのであれば、ウェブ上には一切の痕跡を残さないこと、そしてChatGPTにもうかつに情報を明かさないことを心がけるべきでしょう。
ChatGPTの安全性・危険性【正確性】
個人的には、ChatGPTの安全性に対する懸念としては正確性が最も致命的な問題かと思います。
ChatGPTはあたかも人工知能のような捉え方をされがちですが、実際には膨大なデータをもとにそれらしい言語と論理で回答するbotのようなものです。
そのため、質問の内容次第ではまったく事実に反する回答をしてきます。
そこを理解せずに利用していると、誤った情報を信じてしまう可能性が高くなってしまいます。
ちなみに、ChatGPTの正確性を調べたい人は、実在しない芸術作品の内容やタイトルを質問してみましょう。
たいていはそれらしい回答をしてきますが、そもそも実在しないわけですから真っ赤な嘘です。
そう考えると、ビジネスや学業でChatGPTを使う安全性は極めて低いと言わざるを得ません。
活用するとしても、なんらかの成果物の「叩き台」くらいに考えておくべきでしょう。
ChatGPTの安全性・危険性はユーザー次第
語弊を恐れずいえば、先にも触れたようにChatGPTは非常に高性能な文章生成botのようなものです。
それ自体がなにか災厄を引き起こすような危険性は持ち合わせていません。
極論、ChatGPTの安全性・危険性はそれを使うユーザー次第です。
ちなみに、AIというと人類の脅威になるというような論調も聞かれがちです。
ただ、ChatGPT自身が自律的に人を騙してなにかを画策するような知能を持っているわけではありません。
ChatGPTの「GPT」とは「事前学習形式の自然言語生成モデル」くらいの意味です。
言ってしまえば単なる言語生成モデルにすぎません。
それ自体が高度な知能を持って人類の存在を脅かすような危険性を持つわけではありません。
たしかに社会の在り方を変えそうな画期的なサービスではありますが、現状そこまで危険視するようなものではないと思われます。
ChatGPTの安全性・危険性を分かりやすく解説 まとめ
ChatGPTの開発元は世間の批判を受けて安全性に関する対策を公表しました。
その主な視点は「動作の安全性」「子どもの保護」「プライバシー尊重」「不正利用」「正確性」です。
中でも個人的には「正確性」が極めて危険性の高い問題に思います。
たしかにChatGPTは画期的なサービスですが、工業製品のような安全性評価の規格はまだありません。
今後ChatGPTをビジネスや学業で使うつもりの人はその安全性・危険性はしっかりと把握しておきましょう。