AWS2023 SIG-SEC(外部リンク)

AI Security Workshop (AWS) 2024

AWSの目的

近年、AI技術を利用した多くの製品やサービスが世の中に浸透してきており、AIの意思決定が人々の生命や多くの産業に影響を与えるものになっている。AIによる自律的な意思決定から人間が徐々に排除されていく中で、設計原理としてAIのセキュリティを考慮する必要性が高まっている。AIセーフティやセキュリティを考える上で、AIセーフティ・セキュリティに関する課題や最新の研究動向をセキュリティコミュニティ間で共有し、活性化していくことは今後のセキュリティ研究の発展に重要なテーマの一つである。

上記目的のため、AWS(AIセキュリティワークショップ)は情報処理学会・CSEC研究会の有志と人工知能学会・安全性とセキュリティ研究会(SIG-SEC)の有志が協力して企画しています。今後,AWSがセキュリティ研究者とAI研究者の交流の場となり、「信頼されるAI」研究の活性化につながることを期待しています。

後援

人工知能学会 安全性とセキュリティ研究会(SIG-SEC)

プログラム委員

トラック長 櫻井幸一(九州大学)
副トラック長 高橋健一(鳥取大学)
大塚玲(情報セキュリティ大学院大学)
プログラム委員 芝原俊樹(NTT社会情報研究所)
披田野清良(株式会社KDDI総合研究所)
吉田康太(立命館大学)
矢内直人(パナソニックホールディングス株式会社)
栗林稔(東北大学)

実行委員会

実行委員長 大塚玲(情報セキュリティ大学院大学)
実行委員 櫻井幸一(九州大学)
高橋健一(鳥取大学)
菅和聖(日本銀行金融研究所)
榊剛史(株式会社ホットリンク)
溝口誠一郎(DNV ビジネス・アシュアランス・ジャパン)
宮地充子(大阪大学)

参加登録

AWS2024への参加登録は、CSS2024への参加登録と共通となっています。

論文募集

AI技術の発展と共に、その安全性やセキュリティに対する懸念、コンピュータ・ネットワークセキュリティへの応用の必要性が高まっています。AWSトラックでは、これらの最新の研究動向を共有することを目的に、Security for AI、AI for Security、フェイクメディア、AIと法的規制などに関する論文を広く募集します。

論文賞

AWS2024への投稿論文は、CSS論文賞の対象となります。

プログラム

AWS企画セッション(招待講演×3)

講演タイトル 「生成AIのリスク対策:取り組み状況と課題」
講演者 福島 俊一氏(JST)
概要 生成AIの登場によって深刻化する様々なAIリスクを取り上げ、その対策への取り組み状況を5つのケースに分けて俯瞰的に整理する。その上で、生成AIリスク対策・安全性確保に関する課題や方向性を論じる。
講演タイトル 「AIシステムのセキュリティ: 脅威となりつつあるAIの現状と課題」
講演者 高橋 健志氏(NICT)
概要 AIはさまざまな分野に浸透し、既に多岐にわたるシステムで活用されている。その一方で、そのAIの威力が深刻な課題となりつつある。サイバーセキュリティ分野においても、セキュリティ対策を自動化・高度化するためのAI技術やシステムが構築されてきた。しかし、今度はそれらに組み込まれるAI自体が新たな攻撃ベクトルとなる危険性があり、様々な研究報告が発表されている。このAIセキュリティを重要視する潮流は世界的なものであり、すでに政策レベルで取り組みを進めている国も存在する。本講演では、まずAIセキュリティに関する世界的な動向を俯瞰する。次に、AIの具体的な脆弱性についてその全体像を概観し、さらに主要な脆弱性を紹介する。
講演タイトル 「顔認証におけるAIの脅威と対策:研究動向とリスク管理」
講演者 宇根 正志氏(日本銀行)
概要 顔認証を用いたサービスにおいて機械学習モデルによる合成画像を用いたなりすましの脅威が高まっている.画像の合成手法や合成画像の検知手法としてさまざまな手法が提案されているが、実際のサービスで検知手法を適切に使用するためには、検知の効果を横並びで評価することが望ましい。本稿講演では、検知手法の評価に関する課題やそれを踏まえたリスク管理の方針について考察する。

PWS・AWS合同企画セッション(講演とパネル・ディスカッション)

生成AIを含むAIの利活用を促進するためにはリスクへの配慮も求められ、AIを活用する組織ではそのガバナンスが重要なテーマになっている。我が国ではAIの安全性確保の中核を担う組織としてAIセーフティ・インスティテュート (AISI)を設立するとともにAI事業者ガイドラインが整備され、立法に関する議論も進んでいる。一方、技術的な研究においても、AIの安全性やプライバシーに配慮した研究が進展しており、今後、これらを接続して、AIの安全な利活用の更なる進展が期待される。本セッションでは、AIガバナンスに関する政策動向、およびAIの安全性やプライバシー保護に関わる技術の研究動向について解説し、議論を行う。

講演タイトル 「AIガバナンス実現に向けた取り組み」
講演者 平本 健二(AIセーフティ・インスティテュート 副所長・事務局長/独立行政法人情報処理推進機構 デジタル基盤センター長)
概要 AIが急速に発展と普及しているが、AIの開発から利用までにはリテラシーレベルも多様な関係者が存在する。こうした中で、イノベーションを促進しながら、安全性も同時に確保していく必要があり、世界各地で、AIイノベーション、AIセーフティの取り組みが行われている。その取り組みの概要や展望について解説する。
講演タイトル 「マシン・アンラーニングの研究と応用に関する現状と課題(技術面)」
講演者 櫻井 幸一(九州大学・教授 サイバーセキュリティセンター&量子コンピューティングシステム研究センター)
概要 人工知能 38巻2号(2023年3月) 特集「AI セキュリティの研究動向」において、下名は”機械アンラーニングの研究に関する現状と課題”を論じた。さらに、国内の先駆的研究紹介をその補遺として、2023年度 人工知能学会全国大会(第37回)で 紹介した。本稿では、最新の大規模言語モデルも含めて、技術面からの研究現状と課題を論じる。
講演タイトル 「マシン・アンラーニング技術の法的側面」
講演者 鈴木 健二(ソニーグループ Principal Researcher)
概要 AI学習データやAI学習済みモデルには、法的要請に基づいて消去すべき個人情報が含まれていることがある。しかし、AI学習済みモデルから該当データを消去してAIモデルを再構築することには、経済的なコストが伴う。このため、AI学習済みモデルから特定の個人情報を忘れさせる技術として、マシン・アンラーニングが注目されている。本講演では、マシン・アンラーニングの意義と技術的限界に焦点を当て、その法的な位置づけを明らかにする。また、各国・各地域のプライバシー保護法制へのマシン・アンラーニングの適用について考察し、その有用性と限界について言及する。
講演タイトル 「AIを安全に利用する技術的課題と対策」
講演者 小澤 誠一(神戸大学 数理・データサイエンスセンター・教授)
概要 ここ15年間におけるAIの進化は、我々を取り巻く技術環境だけでなく、社会環境や文化・教育環境などに大きな影響をもたらしてきた。AIモデルの多くはデータ駆動型であり、それがもたらす高性能性・高機能性はモデルが潜在的にもつ高い自由度がもたらす効用である。しかし、これは性善説に立ったときの話であって、立場が変わって、攻撃者にとってみれば都合のよいツールとなる。また、人間と直接対話する高性能AIが出現し、サイバーフィジカルシステムのアクチュエーションが機械だけでなく人間にも及ぶことの社会的リスクは日増しに高まっている。AIの安全性保障は本質的に実現困難な課題であり、サイバー攻撃同様、その影響をいかに緩和するかにフォーカスを当てるべきかと考える。

リンク

  • AWS2023
  • 人工知能学会 安全性とセキュリティ研究会(SIG-SEC)<外部リンク>