1.敵対的サンプル(Adversarial Examples)攻撃

 アドバーセリーアル・イグザァンプルズ攻撃と呼ぶ
   AIの画像認識において、
   認識させる画像の中に人間には知覚できないノイズや微小な変化を含め
     AIアルゴリズムの特性を悪用し、判定結果を誤らせる攻撃

   人の目から見ても、AIから見てもおにぎりと判定される画像がある
   一定の規則に従ったノイズなどを加えることで
   人の目にはおにぎりのままに見えるにもかかわらず
   AIには別のものに変化させることができる

2.モデル反射(Model Inversion)攻撃

 モデル インバージョン攻撃と呼ぶ(学習モデル反転攻撃ともいう)
   AIの学習モデルの入出力を利用してプライバシーを暴露する 攻撃

   画像情報の入力があって、過去の訓練情報のデータセットを利用し、
   これがおにぎりであることを出力する
     訓練情報を窃取する攻撃

3.適応的選択文書(Adaptively Chosen Message)攻撃

 アダプティブリー・チョォゥズン・メッセージ攻撃と呼ぶ
   署名偽造者が任意に選んだ文書に対して真の署名者に署名させた後に、
     そこで得た情報を用いて第3の文書の署名を偽造する攻撃

4.DRDoS(Distributed Redlection Denial of Service)攻撃

 ディィストゥリィビュゥートゥ. ・ディナイアル・オブ・サービス攻撃と呼ぶ
   DRDoS(分散反射型サービス拒否攻撃)
   送信元IPを攻撃対象のアドレスに偽装したパケットを大量に送信し、
   応答を攻撃対象のコンピュータに送り付けてダウンさせようとする攻撃