[2-B-4-05]LLMの情報漏えいリスクについて
*高江洲 勲1(1. 三井物産セキュアディレクション株式会社)
生成AI、特に大規模言語モデル(LLM)の進歩は目覚ましく、IT・通信、金融、製造、行政など多岐にわたる分野での利活用が進んでいる。医療・ヘルスケア分野でも、問診や診断補助、医師の所見の要約などにおける利活用が検討されており、これにより医療業務の効率化や患者ケアの向上が期待されている。しかし、LLMを利用する際には、その特性を理解し、適切なリスク管理が不可欠となる。
例えば、ChatGPTは膨大なWebデータや英語版Wikipedia、さらにはユーザーが入力した指示文(プロンプト)を学習していると言われている。そのため、過去に誤って公開された情報や、ユーザーが誤って入力した機密情報が学習されている可能性がある。LLMの特性上、一度学習された情報をピンポイントで削除することは極めて困難であり、その情報が永続的にLLM内に保持され続けるリスクがある。
LLMは、ユーザーが入力したプロンプトに基づいて学習した情報をもとに回答を生成するが、このプロセスにおいて、学習された情報が偶発的または意図的に他ユーザーに開示されるリスクが存在する。特に、医療情報を学習したLLMにおいてこのリスクが顕在化した場合、患者のプライバシーに関わる情報や機密情報の漏えいを引き起こす可能性がある。
本講演では、LLMが学習した情報が第三者に開示される可能性について、講演者自身の検証結果および国内外の研究事例を基に、LLMの情報漏えいリスクとその対策について解説する。本講演が医療現場でLLMを安全かつ効果的に利用するための一助となれば幸いである。
例えば、ChatGPTは膨大なWebデータや英語版Wikipedia、さらにはユーザーが入力した指示文(プロンプト)を学習していると言われている。そのため、過去に誤って公開された情報や、ユーザーが誤って入力した機密情報が学習されている可能性がある。LLMの特性上、一度学習された情報をピンポイントで削除することは極めて困難であり、その情報が永続的にLLM内に保持され続けるリスクがある。
LLMは、ユーザーが入力したプロンプトに基づいて学習した情報をもとに回答を生成するが、このプロセスにおいて、学習された情報が偶発的または意図的に他ユーザーに開示されるリスクが存在する。特に、医療情報を学習したLLMにおいてこのリスクが顕在化した場合、患者のプライバシーに関わる情報や機密情報の漏えいを引き起こす可能性がある。
本講演では、LLMが学習した情報が第三者に開示される可能性について、講演者自身の検証結果および国内外の研究事例を基に、LLMの情報漏えいリスクとその対策について解説する。本講演が医療現場でLLMを安全かつ効果的に利用するための一助となれば幸いである。
