第4回プライバシーワークショップ (PWS2018)
ホテルメトロポリタン長野、10月22日(月)〜10月25日(木)
PWS勉強会
-
2018年11月12日(月)16:00-19:00
場所:理化学研究所 革新知能統合研究センター 会議室
講演1:Model Inversion攻撃:AIシステムにおけるプライバシー暴露の脅威
講師:披田野 清良 (KDDI 総合研究所)
概要:Model Inversion攻撃は、USENIX 2014およびCCS 2015でFredriksonらにより提案されたAIシステムに対するプライバシー暴露の攻撃である。本攻撃では、AIシステムの入出力を不正に利用することで、ユーザがAIシステムを利用した際の出力情報から、当該ユーザの入力情報を逆推定する。AIシステムに入力する情報には、性別や年齢等の属性情報や、位置情報や購買履歴等の行動履歴など、一般的にユーザが公開したくないと感じる情報が含まれる場合がある。このため、本攻撃の実現により、AIシステムからプライバシーに配慮すべきユーザ情報が第三者に漏洩する恐れがある。本発表では、Fredriksonらを始めとするModel Inversion攻撃に関する一連の研究について、対象とするAIシステムや攻撃者に関する条件設定の違いを整理し、本攻撃の具体的な構成方法とその効能について解説する。
講演2:局所型差分プライバシーと分布推定への応用(仮)
講師:村上隆夫(産総研)
概要:ユーザが自分自身でパーソナルデータにノイズを加えるなどの加工を施してサービス事業者に送信し,サービス事業者側で元データの分布推定などのデータ解析を行う局所型差分プライバシー(LDP: Local Differential Privacy)の研究が活発化している.LDPは中央集権型差分プライバシー(Centralized Differential Privacy)と同様,任意の攻撃者に対する安全性を数理的に保証し,かつ(中央集権型とは違って)サービス事業者から元データが漏洩する恐れがないという特徴を持つ.近年,LDPの研究は活発化しており,GoogleがChromeに独自技術のRAPPOR[Erlingsson+, CCS14]を実装するなど,一部実用化も進んでいる.本発表では,サービス事業者側のタスクとして元データの分布推定にフォーカスを絞り,k-RR(k-ary Randomized Response)やRAPPORなどのデータ加工メカニズムとその有用性に関する理論的性質[Kairouz+, ICML16]を説明する.また,分布推定法として逆行列法や反復ベイズ法[Agrawal+, SIGMOD05]を説明した後,反復ベイズ法の推定誤差の補正法[Murakami+, PETS18]を紹介する.