大阪都市大学开发可解释AI船舶导航系统 增强自动驾驶信任度

360影视 动漫周边 2025-04-18 14:37 2

摘要:113年前(1912年4月14-15日),泰坦尼克号因撞击冰山沉没,事故原因可能涉及人为操作失误致使船舶偏离安全航线。如今,基于人工智能的自主导航系统虽能帮助船舶规避类似事故,但其决策逻辑能否向船员清晰阐释?

113年前(1912年4月14-15日),泰坦尼克号因撞击冰山沉没,事故原因可能涉及人为操作失误致使船舶偏离安全航线。如今,基于人工智能的自主导航系统虽能帮助船舶规避类似事故,但其决策逻辑能否向船员清晰阐释?

这正是可解释人工智能(Explainable AI)的核心价值——通过阐明系统决策依据,提升人类对自主技术的信任度。大阪都市大学工学研究科吉冈仁志(研究生)与桥本博忠教授团队针对海上关键航道日益拥堵的现状,成功开发出可量化碰撞风险的船舶用可解释AI模型。

该模型通过数值化呈现区域内所有船舶的碰撞风险,同步解释自主导航系统的决策基础与行为意图。“当AI能阐明其航行判断依据时,海事工作者才会真正信任这套系统。” 桥本教授表示,“这项研究也将推动无人船舶技术的实用化进程。”

研究成果已发表于海洋工程领域权威期刊《Applied Ocean Research》。

来源:SENSORO升哲

相关推荐