近年,AI技術を利用した多くの製品やサービスが世の中に浸透してきており,AIの意思決定が人々の生命や多くの産業に影響を与えるものになっている.AIによる自律的な意思決定から人間が徐々に排除されていく中で,設計原理としてAIのセキュリティを考慮する必要性が高まっている.AIセーフティやセキュリティを考える上で,AIセーフティ・セキュリティに関する課題や最新の研究動向をセキュリティコミュニティ間で共有し,活性化していくことは今後のセキュリティ研究の発展に重要なテーマの一つである.
上記目的のため,AWS(AIセキュリティワークショップ)は情報処理学会・CSEC研究会の有志と人工知能学会・安全性とセキュリティ研究会(SIG-SEC)の有志が協力して企画しています.今後,AWSがセキュリティ研究者とAI研究者の交流の場となり,「信頼されるAI」研究の活性化につながることを期待しています.
アクロス福岡B会場 & オンライン(ハイブリッド開催)
アクセス情報はこちら
開催期間:2023年10月31日 9:00 - 12:20 (CSS2023期間中)
人工知能(AI)技術の発展が著しく,急速に活用が広がっている.それにつれてAIシステムは,精度・性能が高いというだけでなく,安全で信頼できるものであることが社会から強く求められるようになった.本講演では,そのような社会的要請に応える「信頼されるAI」の技術開発の動向を概観する.セキュリティの観点からAIに関わる脅威やリスクを考えるならば,AIシステムの脆弱性を突く攻撃やAI技術を用いた新種の攻撃だけでなく,AIシステムに対する利用者の期待を欺くケースにも目を向ける必要がある.すなわち,攻撃に対する防御だけでなく,AIシステムに対するトラスト形成が重要になる.このようなAIのセキュリティやトラストに関する問題・取り組みを振り返りつつ,急速に発展する生成AIがもたらした問題にも触れる.
2021年頃に登場した基盤モデル (Foundation Model) は,従来のように個別のタスクに仕立てたモデルを作るのではなく,単一のモデルを多様な後続タスクに適用可能となっている深層学習のパラダイムを表した言葉である.この傾向が特に顕著なのは言語(GPT-3,PaLMなど)であるが,マルチモーダル領域におけるImagenやCLIP,強化学習領域におけるGato,RT-1など多様な領域で同様のアプローチを取った研究が行われている.基盤モデルは一般にデータ・モデル両面のスケールと同時に説明されることも多く,モデルサイズ・計算量・データサイズと性能の関係に関する経験則(Scaling Law)や,モデル規模が拡大した際にのみ発現する能力 (Emergent Law) の存在などが報告されている.本講演ではこれらの技術的な動向について概観し,今後の展望について述べる.
SNSの発達・普及に伴い,人々のコミュニケーション・情報共有のあり方が変化し,それにより個人・集団の意志決定に少なからず影響を与えるようになった.特に近年では,フェイクニュース・エコチェンバー・インフォデミックといった負の影響が社会問題となっている.本講演では,SNS上の情報拡散がもたらす社会的リスクについての研究動向や事例について紹介する.
スマホで撮影した顔写真と運転免許証を用いて本人確認を行うeKYCのシステムを実験用に構築し,ディープフェイクによるなりすましの可能性に関する実験結果を紹介するとともに,その対策のあり方について説明する.
深層学習技術を用いた画像認識技術の社会実装が進んでおり,顔認証システムや自動車の運転支援システムなどセキュリティや人の安全に関わる分野にも応用されている.これらのシステムに対する脅威として,Adversarial examples生成攻撃が知られている.この攻撃は入力画像のピクセル値に摂動を加算(人が気づかない程度に改ざん)することで深層学習モデルの誤認識を誘発するものである.本発表では画像認識タスクを題材として脅威シナリオを整理し,また代表的な攻撃手法と対策をいくつか紹介する.
セキュリティ研究ではこれまでに知られていた複数の攻撃方法を融合することで,より大きな被害をもたらす攻撃が検討されている.本講演では講演者の成果含めた,これらの融合攻撃の動向を紹介する.また,AIセキュリティはもはや技術的観点にとどまらない幅広い広がりを見せている.本稿ではユーザに焦点を当てたAIセキュリティの研究動向についても紹介する.
AWS2023への参加登録はCSS2023の参加登録と共通になっています.
手続きの詳細につきましてはCSS2023の参加登録および参加費のページをご参照ください.