研究室オープンハウス2025(学内向け情報)

以下の通り、研究室のオープンハウスを実施します(対面のみ)。訪問を希望する人は、以下の時間帯で研究室に来てください。事前のアポは不要です。都合が良いタイミングに訪問してください。研究室の学生が複数名待機していますので、研究室に関する説明や感想を聞いたり、質問することができます。

※本学の学生のみ、オープンハウスへの訪問が可能ですのでご留意ください。

日時:
3月17日(月) 10:00-17:00
3月18日(火) 10:00-17:00

場所:63号館5F 0517室

※教員(森)は群馬県前橋市で開催されるCSEC研究会に出張のため、両日とも不在となります

画像は生成AIによるイメージです

情報通信システムセキュリティ研究会 (ICSS)にて8件の研究発表

3月6、7日に沖縄県那覇市(沖縄県立美術館・博物館)で開催された情報通信システムセキュリティ研究会 (ICSS)にて、当研究室から8件の研究を発表しました。当日の発表の質疑応答の時間や、休憩時間等で頂きました有益なフィードバックや励ましを糧に、次の研究につなげたいと思います。

(画像は生成AIによるイメージです)

  1. 長橋舞, 加藤徹哉, 髙瀬由梨, 飯島涼, 森達哉, “フェイストラッキング技術を用いたVR個人認証方式の提案と評価“, 研究報告セキュリティ心理学とトラスト(SPT), 2025-SPT-58(12), pp. 1-8, 2025年3月.
  2. 髙瀬由梨, 秋山満昭, 戸田宇亮, 若井琢朗, 荒井ひろみ, 大木哲史, 森達哉, “AI開発におけるセキュリティ・プライバシーの認識と行動の実態調査“, 研究報告セキュリティ心理学とトラスト(SPT), 2025-SPT-58(41), pp. 1-8, 2025年3月.
  3. 戸田宇亮, 若井琢朗, 森達哉 “LLMエージェントを活用したPyPI上の悪性パッケージ大規模調査“, 信学技報, vol. 124, no. 422, ICSS2024-80, pp. 84-91, 2025年3月.
  4. 久保佑介, 若井琢朗, 森達哉 “GitHub Actionsのセキュアな運用に関する大規模実態調査“, 信学技報, vol. 124, no. 422, ICSS2024-81, pp. 92-99, 2025年3月.
  5. 平井航大, 田中優奈, 野本一輝, 小林竜之輔, 鶴岡豪, 森達哉, “自動運転システムにおける V2X 通信のセキュリティ評価フレームワーク”, 信学技報, vol. 124, no. 422, ICSS2024-105, pp. 281-288, 2025年3月.
  6. 佐藤光優, 小林竜之輔, 野本一輝, 田中優奈, 鶴岡豪, 森達哉, “自動運転におけるHDマップ改ざん攻撃の脅威と影響の評価“, 信学技報, vol. 124, no. 422, ICSS2024-106, pp. 289-296, 2025年3月.
  7. 吉澤龍一, 森達哉 ”強化学習を利用したDirected Greybox Fuzzingの検討”, 信学技報, vol. 124, no. 422, ICSS2024-109, pp. 313-320, 2025年3月.
  8. 小林竜之輔, 野本一輝, 田中優奈, 鶴岡豪, 森達哉, “データセットのアノテーション規則とMSFがLiDAR物体検出への敵対的攻撃に及ぼす影響の評価”, 信学技報, vol. 124, no. 422, ICSS2024-114, pp. 352-358, 2025年3月.

2025年 暗号と情報セキュリティシンポジウム(SCIS2025)で6件の研究発表

1月28日から31日まで小倉で開催された暗号と情報セキュリティシンポジウム(SCIS2025)にて、当研究室から6件の研究を発表しました。当日の発表の質疑応答の時間や、休憩時間等で頂きました有益なフィードバックや励ましを糧に、次の研究につなげたいと思います。

(写真を撮り忘れたので、画像は生成AIによるイメージです)

  1. 丹治開, 秋山満昭, 森達哉, “Web3メタバースユーザのセキュリティ・プライバシー意識調査,” 暗号と情報セキュリティ研究会 (SCIS) 2025年1月
  2. 海老根佑雅, 野本一輝, 田中優奈, 小林竜之輔, 鶴岡豪, 森達哉, “敵対的映像攻撃が vSLAM の位置推定とドローン制御に及ぼす影響評価,” 暗号と情報セキュリティ研究会 (SCIS) 2025年1月
  3. 掛林諒平, 森達哉, “Text-to-Imageモデルに対するデータ汚染攻撃の多言語評価,” 暗号と情報セキュリティ研究会 (SCIS) 2025年1月
  4. 斧田洋人, 鶴岡豪, 田中優奈, 小林竜之輔, 大西健斗, 東拓矢, 小関義博 ,中井綱人, 森達哉, “敵対的背景を用いた歩行者検出妨害攻撃の提案と評価,” 暗号と情報セキュリティ研究会 (SCIS) 2025年1月
  5. Jiadong Liu, Tatsuya Mori, “Adversarial Trajectory Attack Targeting Autonomous Driving Planner“, 暗号と情報セキュリティ研究会 (SCIS) 2025年1月
  6. Ziling He, Jiadong Liu, Tatsuya Mori, “Robustness of Deep Reinforcement-Learning-Based Autonomous Driving to Adversarial inputs“, 暗号と情報セキュリティ研究会 (SCIS) 2025年1月

A paper got accepted!

We are happy to announce that our paper entitled “Invisible but Detected: Physical Adversarial Shadow Attack and Defense on LiDAR Object Detection” has recently been accepted for publication in the Proceedings of the 34th USENIX Conference on Security Symposium (USENIX Security 2025). Congratulations, Kobayashi-kun and the team!

Ryunosuke Kobayashi, Kazuki Nomoto, Yuna Tanaka, Go Tsuruoka, Tatsuya Mori, “Invisible but Detected: Physical Adversarial Shadow Attack and Defense on LiDAR Object Detection,” Proceedings of the 34th USENIX Conference on Security Symposium (USENIX Security 2025), August 2025 (to appear).

Overview.

This study introduces “Shadow Hack,” the first adversarial attack leveraging naturally occurring object shadows in LiDAR point clouds to deceive object detection models in autonomous vehicles. Unlike traditional adversarial attacks that modify physical objects directly, Shadow Hack manipulates the way LiDAR perceives shadows, affecting detection results without altering the objects themselves.

The key technique involves creating “Adversarial Shadows” using materials that LiDAR struggles to measure accurately. By optimizing the position and size of these shadows, the attack maximizes misclassification in point cloud-based object recognition models. Experimental simulations demonstrate that Shadow Hack achieves a 100% attack success rate at distances between 11m and 21m across multiple models.

Physical-world experiments validate these findings, showing a near 100% success rate at 10m against PointPillars and 98% against SECOND-IoU, using mirror sheets that remove almost all LiDAR-detected points from 1m to 14m. To counter this attack, the authors propose “BB-Validator,” a defense mechanism that successfully neutralizes the attack while maintaining high object detection accuracy.

This work highlights a novel and critical vulnerability in LiDAR-based perception systems and presents an effective defense, contributing to the ongoing effort to enhance the security of autonomous vehicles.

A paper got accepted!

We are happy to announce that our new study entitled “Evaluating LLMs Towards Automated Assessment of Privacy Policy Understandability” has recently been accepted for publication in the Proceedings of the Symposium on Usable Security and Privacy (USEC 2025). Congratulations, Mori-san and the team!

K. Mori, D. Ito, T. Fukunaga, T. Watanabe, Y. Takata, M. Kamizono, T. Mori, “Evaluating LLMs Towards Automated Assessment of Privacy Policy Understandability,” Proceedings of the Symposium on Usable Security and Privacy (USEC 2025), February 2025 (to appear).

Overview.

Companies publish privacy policies to improve transparency regarding the handling of personal information. However, discrepancies between the descriptions in privacy policies and users’ understanding can lead to a decline in trust. Therefore, assessing users’ comprehension of privacy policies is essential. Traditionally, such evaluations have relied on user studies, which are time-consuming and costly.

This study explores the potential of large language models (LLMs) as an alternative for evaluating privacy policy understandability. The authors prepared obfuscated privacy policies alongside comprehension questions to assess both LLMs and human users. The results revealed that LLMs achieved an average correct answer rate of 85.2%, whereas users scored 63.0%. Notably, the questions that LLMs answered incorrectly were also difficult for users, suggesting that LLMs can effectively identify problematic descriptions that users tend to misunderstand.

Moreover, while LLMs demonstrated a strong grasp of technical terms commonly found in privacy policies, users struggled with them. These findings highlight key gaps in comprehension between LLMs and users, offering valuable insights into the feasibility of automating privacy policy evaluations. The study marks an important step toward leveraging LLMs for improving the clarity and accessibility of privacy policies, reducing the reliance on costly user studies in the future.