1,Tesla Motors 在电动汽车领域有哪些核心技术

电动汽车核心技术分三类,电机,电控、电池,特斯拉的技术再电控是有积累的,电池是用的松下的,电机也分自产,所以特斯拉真正的核心就是电控!!
电动车(ev)、混动车(hev)的各种核心技术,如电池、电机、逆变器、可充电电池、充电器等 日本很厉害,尤其是电池基础技术!autocto汽车学院总结,发展电动汽车必须解决好4个方面的关键技术:电池技术、电机驱动及其控制技术、电动汽车整车技术以及能量管理技术。  电池是电动汽车的动力源泉,也是一直制约电动汽车发展的关键因素。电动汽车用电池的主要性能指标是比能量(e)、能量密度(ed)、比功率(p)、循环寿命(l)和成本(c)等。要使电动汽车能与燃油汽车相竞争,关键就是要开发出比能量高、比功率大、使用寿命长的高效电池。电动机与驱动系统是电动汽车的关键部件,要使电动汽车有良好的使用性能,驱动电机应具有调速范围宽、转速高、启动转矩大、体积小、质量小、效率高且有动态制动强和能量回馈等特性。电动汽车用电动机主要有直流电动机(dcm)、感应电动机(im)、永磁无刷电动机(pmblm)和开关磁阻电动机(srm)4类。能量管理系统是电动汽车的智能核心。一辆设计优良的电动汽车,除了有良好的机械性能、电驱动性能、选择适当的能量源(即电池)外,还应该有一套协调各个功能部分工作的能量管理系统,它的作用是检测单个电池或电池组的荷电状态,并根据各种传感信息,包括力、加减速命令、行驶路况、蓄电池工况、环境温度等,合理地调配和使用有限的车载能量;它还能够根据电池组的使用情况和充放电历史选择最佳充电方式,以尽可能延长电池的寿命。

Tesla Motors 在电动汽车领域有哪些核心技术

2,不知道有人比较过小鹏P7和特斯拉的自动驾驶功能吗

小鹏P7这套Xpilot 3.0的硬件架构被定义为全行业最强辅助驾驶硬件架构,搭载12个超声波传感器、5个高精度毫米波雷达、13个自动驾驶摄像头、1颗智能座舱摄像头、高精度地图、高精度定位融合、英伟达Xavier自动驾驶芯片。除特斯拉外,小鹏是第二个能够完全自主建立感知能力的车企。在我看来,无论是将自动驾驶分为四大颗粒——感知、定位、规划、控制,还是从这套硬件架构本身,或者是从小鹏自动驾驶团队的组成架构等等来看,并不能完整诠释小鹏P7这款车的特殊性。对比特斯拉,在自动驾驶上特斯拉一直坚持纯视觉方案,全车21个传感器,包括12个超声波、8个摄像头、1个前置毫米波雷达,主要以视觉感知为主。而小鹏P7则是多传感器融合的方案,除了配置31个传感器外,P7还通过高精度地图+RTK差分+双频高精GPS+超高精度IMU实现了超视距+实时在线的辅助驾驶能力。超视距+实时在线这两个地方,是我认为小鹏P7在自动驾驶方案上与特斯拉最大的不同。某种程度上,可以将特斯拉看成桌面端或者单机的,将小鹏P7看成是移动端或者联网的。不管什么方面,我觉得小鹏P7会越来越强,国产新势力的发展希望。
绝密飞行
首先,随着新能源汽车行业渐趋成熟,消费者对于汽车智能化的要求也已经越来越高。小鹏汽车作为造车新势力中的一员,本身就非常注重汽车在智能化方面的研发,自创立开始到现在,小鹏汽车已经累计申请过800项以上的专利技术,特别是在自动驾驶技术方面,更是投入了大量的精力和研发资金。据悉小鹏P7将会搭载号称全行业最强的辅助驾驶架构XPilot 3.0,其中就包括英伟达Xavier自动驾驶芯片。这款芯片是英伟达为自动驾驶专门设计的芯片,不管是安全架构还是精准性在世界范围内都处于领先水平,与特斯拉Model 3的FSD芯片相比也毫不逊色。尤其是国内人多车多,交通环境自然会更复杂,而小鹏P7针对本土化特征的道路环境、国内驾驶员的习惯及复杂的交通环境进行研究,XPILOT 3.0也在适应中国路况方面做出了很多努力。而特斯拉Model3在安全性能方面虽然也已经比较完备,但是否适合国内的交通环境呢?这点我还是有点存疑的。总得来说,我觉得无论是特斯拉还是小鹏P7,在自动驾驶这块都是不错的,但从实际硬件配置而言,还是小鹏P7高级那么一点。

不知道有人比较过小鹏P7和特斯拉的自动驾驶功能吗

3,什么是人机共驾

人机共驾(Shared Autonomy)MIT 认为自动驾驶应该分为两个等级:一、人机共驾(Shared Autonomy);二、全自动驾驶(Full Autonomy)。这样的分类方式不仅能够提供有建设性的指导方针,添加必要的限制条件同时还可以对要实现的目标进行量化设定。甚至,对每个类别下要实现的功能、对应的技术需求以及可能遇到的问题都可以划分出来。这个原则的核心在于对「人类驾驶员在环」的讨论。为了实现对车辆的有效控制,人和机器组成的团队必须共同保持对外部环境有充分的感知。目标是促使整个行业对「人机共驾」和「全自动驾驶」进行清晰地划分。需要指出的是,表 I 中的术语「Good」和「Exceptional」用来表示解决 1% 极端案例的优先级顺序。远程操控、V2X 和 V2I 等并非必须的技术,如果要使用的话需要达到特殊的能力要求。在实现高等级自动驾驶的方法上,传统思路全程都跳过了对「人」这个因素的考虑,精力主要集中在对地图、感知、规划以及表 I 中「全自动驾驶」一栏标注为「exceptional」的技术上。实际来看,考虑到目前的硬件和算法能力,这种解决方案对高精度地图、传感器套件的鲁棒性要求很高,提供的是较为保守的驾驶策略。而正如表 I 所述,「以人为中心」的自动驾驶汽车着眼点主要在司机身上。负责控制车辆的依然是人,但前提是要对人的状态、驾驶方式及之前的人机合作经验做充分的考量,同时把车辆的转向、加减速等交由人工智能系统负责。以特斯拉的 Autopilot 为例,之前 MIT 的研究显示,测试中有超过 30% 的行程都是由这套 L2 级驾驶辅助系统控制完成的。而如果人机共驾应用成功的话,应该能实现超过 50% 的机器控制率。在这次实验中,MIT 表示无人车系统在接管过程中呈现出了不同程度的能力,而人类驾驶员始终在密切关注着机器的动态,根据感知系统获得的信息及时预测可能发生的危险。二、从数据中学习(Learn from Data)从表 I 不难发现,这其中涉及的任何一项车辆技术都是数据驱动的,需要搜集大量的边缘案例数据,利用这些数据持续不断地优化算法。这个学习过程的目的应该是,通过大量数据实现从传统的模块化监督学习向端到端半监督式和无监督学习过渡。要实现车辆的自动驾驶,传统的方法,不管是哪个级别,几乎都不会大量的应用机器学习技术。除了在一些特殊的线下场景,比如 Mobileye 的视觉感知系统要进行车道线识别,或者是通用 Super Cruise 搭载的红外摄像头要对驾驶员头部动作进行预测等。特斯拉的 Autopilot 可能要比其他方案更进一步,在开发针对第二代硬件平台 HW 2.0 的软件算法时,在视觉感知上应用了越来越多监督机器学习的原理。但即便如此,对车辆的绝大部分控制以及对驾驶员状态监测的实现中,并没有利用大数据驱动的方式,也几乎不涉及线上学习的过程。而在目前业界进行的一些全自动驾驶技术的路测中,机器学习主要应用于环境感知这一环节。更甚的是,这些车辆采集到的数据,无论是从量还是多样性来看,和具备 L2 级自动驾驶能力的车型相比,逊色不少。特斯拉 Autopilot 对目标物、车道线的检测主要依赖机器学习算法进行 | ElectrekMIT 认为,「L2 级自动驾驶系统中机器学习框架使用的数据,从规模和丰富性的角度来看都具有足够的扩展能力,可以覆盖多变的、具有代表性、挑战性的边缘案例。」人机共驾(Shared Autonomy)要求同时搜集人和车辆的感知数据,挖掘分析后用于监督学习的标注。在 MIT 的实验过程中,驾驶场景感知、路径规划、驾驶员监控、语音识别以及语音聚合都应用了深度神经网络模型,可以通过搜集到的大量驾驶体验数据进行持续性的调校和优化。在进行数据采集时,MIT 表示并不会只局限于单一的传感器来源,而是对整个驾驶体验通盘考虑,并将所有的传感器数据流通过实时时钟(real-time clock)汇总、聚合,用于多个神经网络模型的标注。这种方式能够让驾驶场景与驾驶员状态能够很好地匹配起来,而在聚合的传感器数据流进行标注工作,使模块化的监督学习可以在数据规模允许时轻松地向端到端学习过渡。三、监督人类(Human Sensing)这个其实就是我们俗称的「驾驶员监控」。它指的是对驾驶员的整体心理以及功能特征,包括分心、疲惫、注意力分配和容量、认知负荷、情绪状态等的不同程度进行多维度的衡量和评估。目前除了通用 Super Cruise 在方向盘上装有一枚红外摄像头外,不管是搭载了 ADAS 驾驶辅助系统的量产车型,还是在路测的全自动驾驶汽车,绝大部分都没有提供任何有关驾驶员监控的软件和硬件。特斯拉 Model 3 其实也装了一枚车内摄像头,但目前尚未启用,具体功用官方表示要等软件更新后才知道。而基于视觉的解决方案以外,市面上还包括一些准确率不高的方式。比如特斯拉在方向盘上安装了扭矩传感器,也有的公司利用监测方向盘是否发生倒转的方式推断驾驶员是否出现疲劳情况。全新一代凯迪拉克 CT6 搭载的驾驶员监控系统由 Seeing Machines 提供 | 官方供图MIT 认为「对驾驶员状态的感知和监控是实现高效人机共驾的的第一步,同时也是最关键的一步。」在过去的二十多年里,来自机器视觉、信号处理、机器人等领域的专家都进行过相关课题的研究,目的都是在探讨如何尽可能保证驾乘人员的安全。此外,对驾驶员状态的监测对如何改善和提升人机交互界面、高级驾驶辅助系统 ADAS 的设计都有很大帮助。随着汽车智能程度的不断提高,如何准确、实时地探测到驾驶员的各种行为对打造安全的个性化出行体验尤为重要。比较有意思的一点是,从完全的手动驾驶到全自动驾驶,这其中涉及到不同模式切换的问题。一般来说双手脱离方向盘(handoff)就是一种信号,可能表示系统要做好接管的准备了,但还有什么其他更准确的信息可以用来判断,可能这也是「驾驶员监控」的研究人员需要持续思考的地方。四、共享的感知控制(Shared Preception-Control)通俗点来说,这相当于为整个自动驾驶系统增加了「一双眼睛和手」。目的是建立额外的感知、控制和路线规划机制。即便在高度自动驾驶系统运行状态下,也要及时地为驾驶员推送信息,将其纳入到整个驾驶过程中。研究全自动驾驶的目的就是为了完美地解决「感知-控制」的问题,考虑到人类的不靠谱和行为的不可测性。所以传统观点认为最简单的办法就是把人从开车这件事上排除掉,像十几年前在 DARPA 挑战赛中获胜的队伍一样。但和传统解决思路相反的是,MIT 提出的「以人为中心」的理论将人置于感知和决策规划闭环中的关键位置。因此,整车感知系统就变成了支持性的角色,为人类驾驶员提供外部环境信息,这其实也是为了解决机器视觉本身存在的局限性而考虑的。表 II MIT「以人为中心」自动驾驶系统执行的感知任务,包括对驾驶员面部表情、动作以及可驾驶区域、车道线以及场景内物体的检测 | MIT在 MIT 的研究中,工作人员围绕这个原则设计了几条关键的算法。表 II 是其中几个典型的案例。首先,从视觉上可以看到神经网络做出的判断、道路分割的区域以及对驾驶场景状态的预估的可信程度;其次,将所有的感知数据整合并输出融合式的决策建议,这样在表 IV 的场景下就能够对整体风险进行预估;再次,MIT 一直使用的是模仿学习:将人类驾驶员操控车辆时方向盘的动作作为训练数据,进一步优化端到端的深度神经网络;最后,MIT 使用的端到端的神经网络属于一个叫做「arguing machines(争论机器)」框架的一部分,它为主要的感知-控制系统(表 III)提供了来自人类的监督。这里的「争论机器框架」是 MIT 2018年提出的一个概念,它将主要 AI 系统与经过独立训练以执行相同任务的次要 AI 系统配对。 该框架表明,在没有任何基础系统设计或操作知识的情况下,两个系统之间的分歧足以在人工监督分歧的情况下提高整体决策管道的准确性。表 III 对「争论机器」框架在「Black Betty」自动驾驶测试车上的应用和评估 | MIT表 IV 通过结合车内外感知系统数据得出的融合型决策能够充分预估可能发生的风险 | MIT五、深度定制化(Deep Personalization)这里涉及到一个「将人类融入到机器中」的概念。通过调整 AI 系统的参数,使其能够更适合人类操作并呈现出一定程度的定制化。最终的系统应该带有该驾驶员的行为特征,而不是像刚出厂时的普通配置一样。六、不回避设计缺陷(Imperfect by Design)对整个汽车工业而言,处于很多原因的考虑,进行工程设计时通常考虑最多的是「安全」,所以要尽可能地讲系统错误出现的频率和程度降至最低。换句话说,对自动驾驶而言,完美是目标,这也导致了在进行某些功能设计时,可能会因其「不完美」和「不确定」的性质而放弃这些可能是「必要」的设计。但是在 MIT 的研究看来,丰富、高效的沟通机制在设计用于实现「人机共驾」的人工智能系统时,是非常必要的因素。就「沟通」而言,系统存在的不完美对人和机器而言,在进行感知模型的交换和融合过程中,能够提供密集、多样的信息内容。如果将 AI 系统的不确定性、局限性和错误都隐藏起来,这也就错失了与人建立信任、深度理解关系的机会。MIT 认为,此前业界在设计半自动驾驶系统时所采取的「完美」思路,可能是迄今为止所犯的严重错误之一。而在开发「Black Betty」这辆无人车时,MIT 把人工智能系统的局限性通过文字和视觉的形式与人类进行充分沟通。例如将人类和机器对外部世界的感知视觉化,让驾驶员知晓 AI 系统的局限所在。研究人员表示这种方式相比只是提供「报警」或者「模糊的信号」,是最简洁有效的人机沟通方式。尽管这种沟通机制要实现还面临一些技术上的难题,比如视觉化的过程通常对芯片的算力和实时调用的能力要求很高。但值得机器人、自动化以及人机交互等领域共同关注并思考解决的办法。七、系统级的驾驶体验(System-Level Experience)目前,汽车工业的工程设计过程中,一个最主要的目标就是「安全」。另一个则是「降低成本」。第二个目标导向的是模块化、基于零部件的设计思考。但同样的模式在面向机器人、计算机视觉、机器学习等领域的人工智能系统设计中却有着迥异的理由。譬如在设计中重视单一功能(目标物检测等)的实现,能够有效测试该算法的合理性并逐步使之得到改善和优化。但是这个过程也难免会把注意力过渡集中在单一功能而忽略了系统的整体体验。在过去的几十年里,「系统工程」、「系统思考」这样的原则一直在指导着汽车工业产品的输出。然后,类似的思考却几乎没有应用在自动驾驶汽车的设计、测试和评估过程中。正如 MIT 上面提到的这六大原则,人和机器都不可避免会有缺陷,只有当「人机共驾」这个框架在系统层面上得到考虑时,这些缺陷才可能有机会成为优势。对「人机共驾」的永恒讨论不管短期还是长期来看,其实很难预测自动驾驶的哪条实现路径最终会成功,而且退一万步说,你甚至都不知道什么样的结果算得上是「成功」。在谈到研究目的时,MIT 希望一套自动驾驶系统能够同时满足「安全」、「愉悦的驾驶体验」和「提升的出行体验」这三个要求,而不是彼此妥善折中。而尽管「人机共驾」这个话题在过去的十年里,是包括汽车工业、机器人在内很多领域研究的焦点,但它仍值得更深入的探讨。在今年四月份的上海国际车展上,coPILOT 智能高级驾驶辅助系统,这是一套定位「L2+级」 的自动驾驶辅助系统,目的是提高乘用车的安全性和驾驶舒适性。从产品名称不难看出,这套系统同样强调了「人机共驾」的概念。它配备了相应的传感器和功能,能够监控驾驶员并在发生潜在危险情况时触发警告。例如,当发生驾驶员注意力不集中、几乎完全未将注意力放在路面交通上或显示出瞌睡迹象等。所以人工智能扮演了「私人驾驶助手」的角色,这个产品理念与 MIT 的研究不谋而合。到底完美解决驾驶任务比完美管理人类的信任和注意力哪个更难?这是值得深思熟虑的问题。MIT 认为关于这个问题的讨论仍不会停止,不管是这篇论文还是「Black Betty」这台无人测试车,都是基于「人机共驾」研究的成果,MIT 认为它是开发「以人为中心」自动驾驶系统的必由之路。
①时间概念层面的,什么时候人开车,什么时候车自己开(纯无人驾驶),什么时候人和车一起开。 ②汽车驾驶性能层面的,随着无人驾驶技术发展,在驾车过程中,人起的作用越来越小,车的自主性越来越高。

什么是人机共驾


文章TAG:特斯拉有哪些智能和高科技特斯拉  哪些  智能  
下一篇