突破自驾车的「盲点」_W鲜生活_菲律宾申博官网备用网址_金沙娱城手机版賭場

突破自驾车的「盲点」

突破自駕車的「盲點」

去年,Uber自驾车因未侦测到穿越马路的行人而持续行驶致死的意外,重挫自驾车的发展,Uber甚至一度暂停所有相关项目的开发。如今,MIT和微软研究团队所提出的新方法,让人工智慧也能认清自己的盲点─无论是视觉上的盲区,或过往训练与现实情境的鸿沟。

与现实的落差

现今的自驾车研究,多是让智慧体在人类设置的模拟环境中接受训练,提升训练效率。然而儘管模拟器再「拟真」,仍与现实存在明显落差,成为智慧体实际决策时的盲点。例如紧随在后发出警报的救护车,因为虚拟环境中并未纳入这样的情境,自驾车并不知道自己应该减速、暂停,甚至靠边礼让,反而将其视为一般大型白色厢型车,同样的情形亦发生在警车、消防车与校车。此外,飙速车辆、突然冲出的行人、忽左忽右的蛇行机车等标準三宝行为,自驾车系统自然更是无力招架。

此次MIT与微软合作的研究,由麻省理工学院电脑科学家Ramya Ramakrishnan主导,并首次在AAAI人工智慧会议(Association for the Advancement of Artificial Intelligence conference)上发表。研究团队希望智慧体在遇到未知情境时,能认知到自己的盲点,并向人类徵询适当的处理方式。

人类监督

突破自驾车的「盲点」

图一、自驾车必须克服无论源于智慧体(无法辨别救护车与一般厢型车;Sh)或人类(视觉死角;Sa)的盲点。(图片来源:Ramakrishnan et al, 2019.)

从过去的经验可知,模拟环境与现实世界的複杂度有着霄壤之别。某些智慧体在模拟中看似安全的决策,在现实中却可能酿成灾祸。两者间的落差,可以藉由观察人类反应,比较在相同情境下人类与智慧体决策间的差异而得知。这可以透过类似驾训班的学习模式,由人类在一旁指导、演示,当自驾车偏离计划路线,或採取不恰当反应时出手介入、控制,智慧体则记录下其中的差异,尤其那些被遗漏的细节(例如救护车的警报声)。经历多次训练,智慧体由各个人类监督员处所蒐集的回馈数据,足以建构出各种「情境-适当反应」的对应关係,作为系统修正的依据。但这引发另一个问题:人类所给予的回馈,其实充满矛盾与歧异。

首先,人类回馈本身便有可能产生分歧。同一决策即使在相同情境下仍可能被部分人类「接受」,但被另一部分人类认为「不可接受」。

再者,特殊情境本身就较为罕见。假设自驾车十次中有九次是遇到一般的白色厢型车,于是从旁呼啸而过,直到偶然遇到救护车时,一旁监督的人类才会出手制止。对于智慧体而言,相同的情境与行为只有在非常低的机率下才会得到负面回馈,因而理所当然地将其视为「可接受」。

识别「盲点」

研究团队于是使用一种普遍用于群众外包(crowdsourcing)的机器学习方法─Dawid-Skene演算法─来处理这些相互矛盾的「噪音」。

实务上,每个情境与行为,智慧体都会同时收到多个标示为「可接受」或「不可接受」的人类回馈,或许彼此相容,或许彼此矛盾。这些回馈经过整合与机率计算,智慧体可得知在多少信心水準(confidence level)之下,原先针对该情境的判断是「安全/可接受」或「盲点/不可接受」的。

突破自驾车的「盲点」

图二、Ramakrishnan所提出新方法的流程。(图片来源:Ramakrishnan et al, 2019.)

如此,即使智慧体有九成的把握自己在情境A下做出可接受的行为,这种以机率为出发点的演算法,仍会将其视为有「一成犯错机率」的盲点,并依此整理出盲点「热图」。将初次训练后遇到的每个情况,由低到高排列出可被视为系统盲点的机率,当某种情境被判定有较高机率会是盲点时,智慧体则会停下脚步,向人类谘询适当的应对。

未来,研究团队打算开放盲点模型供大众使用,并持续精进模型有效性,缩小自驾车训练与实际上路后的落差。

编译来源

R. Matheson, “Identifying artificial intelligence “blind spots“, MIT News, 2019.

参考资料

(本文由教育部补助「AI报报─AI科普推广计画」执行团队编译)

上一篇:
下一篇:
您可能还喜欢这些:

相关推荐