目次
Contents
ChatGPTとは
ChatGPTが何なのかまだよく知らない人のために簡単に説明すると、ChatGPTはOpenAI社によって開発された対話型のAI言語モデルです。ユーザの質問に対して人間との会話感覚で回答を生成するように設計されていて、質問への回答、言語の翻訳、メールの文章、プログラムの自動生成、長文の要約などにも使用されます。
まだ使われたことが無い方は、以下のURLからサインアップすると、利用することができます。
https://chat.openai.com/auth/login
ChatGPTとサイバーセキュリティ
ChatGPTに限った話ではありませんが、新しい技術が登場した際はそれを悪用するサイバー犯罪者が必ず現れます。例えば偽の電子メールを組織・企業に送り付け、従業員を騙して攻撃者の用意した口座へ送金させる「ビジネスメール詐欺(BEC:Business E-mail Compromise)」と呼ばれる詐欺の手口がありますが、この時に使用する偽の電子メールの本文をChatGPTを用いて作成する、などもやろうと思えばできてしまいます。(もちろんやってはいけませんが。)
そもそも、ChatGPTでは、その質問内容が違法行為である場合、回答を示すことを禁止されているとし、法令に反する行為を慎むよう回答する仕組みになっています。
ChatGPT利用時のリスク
ChatGPT利用時のリスクは、サイバー犯罪者にAI技術が悪用されるという点だけではなく、「悪意がなく行っていたことが、大きな問題になる」というケースもあります。それは、ChatGPTを実際のビジネスで活用される場合、質問の内容が法人組織における機微情報であれば、その情報の漏洩に繋がってしまうことに留意する必要があります。要は、機密情報をChatGPTに入力してしまった事で、AIの判断材料として蓄積される可能性があるのです。そのため、機密情報の漏洩防止の観点から、ChatGPTや開発者のコード作成を支援するGitHubのCopilotといったAI搭載サービスを従業員が利用することを禁止している企業も出てきています。
これはChatGPTなどのAIチャットボットがインターネット上の情報を学習することに起因していると考えられます。利用者が入力する情報も同様に学習のデータの一部になる可能性があるので、機密情報や個人情報を含む質問を行った場合、後に別ユーザに対して機密情報を反映した回答を行う可能性がありますし、OpenAI社が今年3月に個人情報の漏洩問題を引き起きしたことを懸念しているものと思われます。
ChatGPT業務利用について考慮すべきこと
このようなリスクを考えると、ChatGPTを企業として業務利用を認めないというのも一つの選択肢ではありますが、ChatGPTの業務利用を認める場合でも明確に利用ルールを決めておくこと、決めたルールを全社員に周知しておくことが必要です。
しかしながら制定したルールを全社員に周知したとして実際には利用できてしまうのではあまり意味がありませんので、業務利用する社員には申請書を提出してもらい業務利用の妥当性を確認するとともに、申請していない社員が社内からアクセスできないように制限をかけるなどの対策を取る必要があります。
また、入力した情報を学習する可能性がありますので、入力するデータに機密情報などが含まれていないかを確認することも重要です。
最終的なセキュリティの担保はそれを扱う「人の行動」が最も重要である事は、どの場面でも同じです。
最後に
ChatGPTを利用するにあたり上記で述べたようなこととは別に、学習した情報が間違っていた場合に正しくない回答内容が返ってくるなどの問題もあり、回答内容の正確さをChatGPTに100%委ねるのは大変危険です。前提としては、回答が正しいかどうかを判断できる知識が使う側に必要であるという事なのです。
新しく開発された道具というものは使い方次第で薬にもなりますが、毒にもなり得ます。しっかりルールを決めて正しい使い方をすることが肝要です。ITの業界は特に、今後も新しい技術が出てくると容易に想像がつきますので、その都度、利活用およびセキュリティリスクを確認した上で、そのリスクが顕在化しないための運用を考え、利用者に周知し、徹底することが求められるのです。
記事 : D.K