552. 无人驾驶与自动驾驶
无人驾驶与自动驾驶技术属于人工智能技术范畴,近年来有长足进步。无人驾驶与自动驾驶的实现的与路况密切有关。
根据国际自动机工程师学会2004年制度的“无人驾驶与自动驾驶技术界定标准”,将路况分成5级:
根据美国高速交通安全管理局(NHTSA)规定,无人驾驶技术也是分5个等级(见跟帖518,538):
L0 级,是人工驾驶
L1级,需要人类驾驶员(辅助驾驶)
L2-3级,可实现半自动无人驾驶
L4-5级,可实现全自动驾驶
L4-5级区别在于:L4级需要在特定的道路和天气下的路况,L5级可以适应全路况。目前全球无人驾驶与自动驾驶技术正在主攻L4等级路况下行驶无人驾驶与自动驾驶。在全球还未能实现首款L5等级(或全路况)的自动驾驶。
553.欲在L4等级路况下行驶,谷歌等公司Alphabet旗下的waymo公司提出了颠覆性的自动驾驶行为预测算法模型,即提出一个抽象化认识周围环境信息的VectorNet,用向量来表达地图信息和移动物体,并在该模型向量间加入了语义关系以帮助进行行为预测,使VectorNet具备很强实用性,提升自动驾驶行为程度,训练自动驾驶汽车在现有城市环境中L4-L5等级路况条件下进行导航(见跟帖327、328、486、495)。
百度尝试提出另一种思路,在2019年美国的一次自动驾驶技术的讨论中,提出了自动驾驶“中国方案”,即在对现有城市数字化改造的同时根据导航提示传递更丰富的道路信息,在路侧建设完善的激光雷电和传感器系统,根据导航提示传递更丰富的道路信息,以支持实现在L4等级路况下的自动驾驶行为(可查看跟帖145)。今年(2020)在长沙举办首届Apollo生态大会上,探索城市、自动驾驶三位一体(由长沙市提供公共资源,由百度提供自动驾驶技术和生态,由一汽红旗负责整车设计),期望走出一条中国特色的自动驾驶之路(可查看跟帖118)。
探索L5等级路况下的自动驾驶:
在2019年末在美国的一次讨论中,全球自动驾驶专家们认为,从技术上看,城市中道路的实时驾驶环境(L5等级全路况)比路侧更复杂,可能出现极端危险情况也明显增多,探索L5等级路况下自动驾驶行为难度将更大。
554.类脑芯片(或神经拟态芯片)几例:
①IBM True North 芯片,2014研发、2017发布 。
28nm制程工艺,芯片尺寸100㎟ ,每颗芯片4096个内核,每个内核支持100万个神经元、2.5亿个突触每颗芯片支持41亿个神经元、1万亿个突触。芯片集成:48颗芯片,由芯片集成组成的神经网络:2000亿个神经元组网相当于普通老鼠大脑。
②英特尔Loihi芯片,2017发布。14nm 制程工艺,芯片尺寸60 ㎟ 。
每颗芯片支持125个内核,每个内核支持1000个神经元、25万个突触。
每颗芯片支持12.5万个神经元、1000万个突触。
由芯片集成组成的神经元网络:1亿个神经元组网,相当于小型哺乳动物大脑
Loihi训练后能效提高1000倍。
③清华大学 天机芯 (TianJic),
TianJic-1 2017发布。
TianJic-2 2019.7.3 在Nature上发表
TianJic-3 尚在研制中
28nm 制程工艺,芯片尺寸 14.4 ㎟。
每颗芯片156个内核,每个内核支持4万个神经元、1000多万个突触。
每颗芯片支持 625万个神经元。
由单芯片组成的神经网络(625万个神经元网络)。
将基于脉冲神经网络(SNN)的类脑算法和基于人工神经网路(ANN)的深度学习算法集成到一颗芯片上。
④ 浙江大学+之江实验室,
达尔文-1 芯片,2015年发布
达尔文-2 芯片,2019年发布
达尔文-3 芯片, 尚在研制中
每颗芯片 576个内核,每个内核支持256个神经元,6万个突触。
每颗芯片支持15万个神经元。
达尔文-2 芯片集成:792颗芯片支持1.2亿个脉冲神经元、300亿个突触,相当于果蝇大脑神经元数量规模。
⑤其他单位类脑芯片
曼彻斯特大学:SpinNaker 2018.11.2发布。
其芯片集成:支持100万个内核、10亿神经元,相当于小鼠大脑神经元规模。
555.类脑计算(神经拟态计算)与传统硅基计算、传递、运行模式
①前者的信息源是神经电脉冲信号和化学信号,后者为数字信号
②前者编码方式采用稀疏脉冲时序编码机制,后者由数字源代码变换为0,1的机器码。
③前者信息传递方式通过模仿人脑自然神经元+突触组成的脉冲神经网络和运行方式模型,对神经电脉冲进行信息传递,后者采用传统网络权重连接+激活方式,对机器码进行信息传递
④前者计算(神经元)和存储(突触)是一体化的、融合在一起的,后者计算(处理单元)和存储(存储单元)是分离的
⑤前者存在三维广泛连通性,后者无法模拟三维连通,受限于二位连接
⑥前者是基于脉冲的事件驱动型的随机计算,后者为了构建确定性计算采用晶体管间布尔代数电路开关
⑦前者类脑是模拟生物学上自主低能耗类型(计算/处理、传输),实行节能型,后者能耗大
⑧前者模仿人脑的大规模进行通信方式(结构),将数十亿信息同时送到数千个不同目的地,后者也可采用并行通信方式,但传送信息为通过标准网络(从A点到B点),发送大量信息进行通信
⑨前者其运行方式符合类脑计算(神经拟态计算)系统的运行方式(或神经拟态计算架构),后者其运行方式符合冯·诺依曼计算架构。
556.类脑计算完备性
这是清华大学Youhui Zhang, Peng Qu, Yu Ji, Weihao Zhang, Guangrong Gao, GuanruiWang, Sen Song, Guoqi Li, Wenguang Chen, Weimin Zheng, Feng Chen, Jing Pei,Rong Zhao, Mingguo Zhao & Luping Shi 撰写的一篇论文:《Asystem hierarchy for brain-inspired computing》,是清华大学今年第三次在《Nature》杂志上发表的文章(2020.10.14):
本文摘要
-
提出神经拟态完整性
大脑启发计算目前缺乏一个简单而健全的系统层次来支持整体开发。因此,神经拟态软件和硬件之间没有清晰完整的接口。由于许多灵感来自大脑的芯片不是为传统的通用计算而设计的,它们中很少提供传统的指令集,因此不清楚它们是否是图灵完成的。而图灵完备性是传统编译的可行性基础,要求程序的表达和转换是等价的。所以本文提出神经拟态完备性,这是一种更适用于大脑启发计算的完备性的更广泛定义。它放宽了神经拟态硬件的完备性要求,提高了不同硬件和软件设计之间的兼容性,并通过引入一个新的维度—近似粒度来扩大设计空间。
-
提出一种系统层次结构
神经拟态计算与传统计算的区别还在于:它使用同步计算和存储,使用基于spikes (spiking神经网络的特征)的事件驱动计算,并在高并行方面具有更大的潜力。这些差异使得传统的计算机层次结构难以直观地描述类脑应用程序。因此提出了一种具有高通用性的类脑计算系统层次结构。这个层次结构有三个层次:软件、硬件和编译。
软件层次,提出了一个统一的、通用的软件抽象模型——编程操作符图(programmingoperator graph, POG)——以适应各种大脑启发的算法和模型设计。该模型集成了存储和处理。它描述了什么是大脑激发程序,并定义了它是如何执行的。由于POG是图灵完成的,它最大程度地支持各种应用程序、编程语言和框架。
硬件层次,设计了抽象神经拟态体系结构(ANA)。
编译层次,是将程序转换为硬件支持的等效形式的中间层。为了实现可行性,提出了一套被主流的脑激发芯片广泛支持的基本硬件执行原语,证明了配备这套硬件的神经形态是完整的。最终通过实验验证了神经形态完备性引入的系统设计层次的优化效果。
-
相关实验部分
第一个应用实验是一种用于自行车驾驶和跟踪的人工神经网络模型。
第二个应用实验是用于鸟群模拟的boids模型。
第三个应用实验是QR分解(非线性计算的数学算法)。
神经拟态计算从生物大脑中汲取灵感,为计算技术和体系结构提供了推动下一波计算机工程发展的潜力。这种受大脑启发的计算也为人工智能的发展提供了有前途的平台。传统的计算机系统具有围绕图灵完备和冯·诺伊曼体系结构建立的完善的计算机层次结构,而与传统的计算机系统不同,目前尚无广义的系统层次结构或对类脑计算的完整性的理解。这会影响软件和硬件之间的兼容性,从而阻碍类脑计算的开发效率。
清华大学该团队提出了“类脑计算完备性”,它放宽了对硬件完整性的要求,并提出了相应的系统层次结构,其中包括图灵完备的软件抽象模型和通用的抽象神经形态架构。使用这种层次结构,可以将各种程序描述为统一的表示形式,并转换为任何神经形态完整硬件上的等效可执行文件。也就是说,它可以确保编程语言的可移植性,硬件完整性和编译可行性。该团队实现了一系列工具链软件用以支持在各种典型的硬件平台上执行不同类型的程序,进而证明了系统层次结构的优势。
希望可以使类脑计算系统的各个方面实现高效且兼容的进展,从而促进包括人工智能在内的各种应用程序的开发。
论文链接如下:
https://www.nature.com/articles/s41586-020-2782-y
来源:oschina
链接:https://my.oschina.net/u/4413200/blog/4748780