本日、2024年10月12日(土)の投稿です。
今日はIPAが公開している「セキュリティ関係者のためのAIハンドブック」でAIによるセキュリティリスクについて学習しました。セキュリュティやAIに関する仕事はしていませんが、明日の応用情報の試験の対策が目的で資料にアクセスしました。
試験対策としてアクセスした資料でしたが大変面白かったです。業務とは関係ない人でもAIを使う人はこれから右肩上がりに増えていくと思うので、是非、一度目を通しておくことをお勧めします。
個人的に勉強になったと感じたことを共有します。
資料では「機械学習では、一般的にブラックボックスで処理されるため、AIを活用したセキュリュティ製品が誤検知をした場合、その理由を説明できないことがある。」との記載があり、今まで考えたことがありませんでしたが、製品としてフリーのAIを使い障害が出た場合、説明責任を果たせない事態に陥る可能性があるよなと…
資料から、説明可能AIの利用など、AIの中身についての提供、理解する環境の必要性を感じました。
また、過検知やすり抜けのリスクやその対策についても記載されていたので、是非、読んでみてください!
個人的に初めて聞いたワード集をまとめました。
NGAV・・・「次世代アンチウィルス」として注目。PCやサーバのマルウェアの振る舞いをAIの活用などにより検知する。
NGFW・・・ネットワークやサーバの不正な通信を検知。従来のファイヤーウォールより細かく通信を制御できる。
UEBA・・・ユーザや機器の振る舞いを分析し、異常を検知するソリューション。
MLOps・・・AI(機械学習)の開発チームと運用チームが互いに連携して、AIモデルの開発から運用までのAIライフサイクルを自動化により円滑に進めるための体裁や技術、考えかた。