神经学习

脑机结合,你准备好成为超人了吗?

新纪录片《我是人类》探究脑机接口在现实世界中的种种可能性。

脑机接口可以给人类带来什么呢?恢复失去的能力?超越过去的潜能?新纪录片《我是人类》记录了神经技术如何帮助人们恢复视力、重新训练身体和治疗疾病——然后让我们所有人都变得a更加强大。

一个下雨天,比尔正在骑自行车,突然他前面的邮车停了下来。比尔则没能及时停下来。突如其来的猛烈撞击使得他胸部以下瘫痪。他仅剩下的自主行动能力依赖于语音控制,借助该技术他能够放下房间里的百叶窗,或者调整他的机动床的角度。在其他事情上,他则完全依赖于别人全天候的照料。

比尔不认识患有帕金森症的安妮;当她试图化妆或给花园除草时,她的手会颤抖。他们俩都不认识斯蒂芬。斯蒂芬成年后因视力退化而失明,需要他的妹妹帮助他探索外面的世界。想象他们三个人在一起的场面,听起来就像一个拙劣的笑话——一个盲人,一个四肢瘫痪的人,一个帕金森病人一起走进一家酒吧。但他们的故事在一部新纪录片《我是人类》(I Am Human)中融合了在一起,这部影片近日在翠贝卡电影节首映。

电影讲述了这三个人接受大脑治疗的故事,医生打开他们的头骨植入电极,希望能帮助他们恢复失去的东西——运动能力,视力,对身体的控制力——并重新获得某种自由感。对他们每一个人来说,这段旅程不仅关于医学,还具有哲学意义,它让他们更加深刻理解了作为生物的本质。这部纪录片还探讨了神经技术的前景,即给人类大脑植入芯片会让人类的能力达到什么样的程度。

这部电影的联合导演泰伦·萨瑟恩(Taryn Southern)说,她开始思考大脑问题的时候,正值《黑镜》(Black Mirror)和《西部世界》(Westworld)等讲述人类与科技之间关系的电视剧开始红火。她发现自己被科幻小说重新想象机器在人类进化中所扮演的角色所吸引——机器不仅仅是和人类一起进化,而且实际上改变了人类物种。

“我们在这些电视剧中所看到的反乌托邦思想和现实世界中实际发生的事情之间似乎存在这种脱节。”自认为是科技乐观主义者的萨瑟恩说道。

萨瑟恩并不是唯一一个对这个话题着迷的人。在翠贝卡电影节首映的其他影片也探讨了类似的主题:《近乎人类》(Almost Human)探讨人类与他们创造的机器人之间的关系;短片《万能机器》(Universal Machine)讲述了一个女人和栩栩如生的人工智能之间的对抗。

事实上,世界上已经有成千上万的人拥有了脑机接口,科学家们至少从20世纪70年代就开始开发这种接口,这在一定程度上要归功于美国国防部高级研究计划局(DARPA)的资助。一些专家预测,随着科学的发展,这个数字将在未来十年达到100万。“现实生活正在展开,比科幻小说还要酷。”萨瑟恩的导演搭档埃琳娜·加比(Elena Gaby)说。

但是我们还没有搞清楚人类的大脑内部的工作机制,这种神经技术还没有真正开始带来回报。电影中出现的神经学家大卫·伊格曼(David Eagleman)指出,大脑中有一千亿个神经元,每一个都“像洛杉矶一样复杂”,有大约500万亿个连接。像比尔、斯蒂芬和安妮所接受的治疗在很大程度上仍处于试验阶段,并不能保证有效。

“有趣的是,我们可以计算步数,计算卡路里,测序基因组,抽血,测量心率,但实际上我们对大脑一无所知。”神经科学初创公司Kernel创始人兼首席执行官布莱恩·约翰逊(Bryan Johnson)表示,“我们有这点自知之明,但除此之外,大脑就是一个黑匣子。”

正是这种对大脑种种未知之数的畏惧,将《我是人类》的主题与宏大的科幻理念区分开来。比尔、斯蒂芬和安妮是否要在他们的大脑中植入芯片的决定比《黑镜》中的任何场景都要困难得多。“有人要侵入你的大脑,”安妮在电影中说道,“而你并不知道将会发生什么。”

最终,她决定进行大脑深层刺激,也就是通过在大脑中植入电极来刺激特定部位(在安妮的例子中,是抑制运动系统)。这种治疗在有帕金森症症状的病人身上非常成功。植入物将“数据”从大脑中发送出来,并向她的大脑输送电流,缓解了持续不断的颤抖症状。

斯蒂芬开始尝试另一种实验性治疗方法,叫做Argus。该治疗要在眼睛下面植入一个芯片,与大脑中的电极相连接。最令人感动的是,比尔——需要别人持续地照料他的进食,移动,以及帮助他通过吸吮管来吞咽食物——自愿测试一个脑机接口,这个接口可能会恢复他的大脑和身体神经之间被切断的连接。为了“重新训练”他的大脑,比尔观看一个手臂的动画,想象自己在移动自己的手臂,一组科学家构建了一个算法,编码比尔的运动意图,然后将其发送到植入他手臂和手部的电极上。这个想法的目的是:让比尔控制自己的肌肉。

 《我是人类》也追访了一些科学家和企业家,他们相信神经技术将在不久的将来给我们带来各种超能力。

“这有点像《星际迷航》,”比尔在屏幕上描绘,电线从他的头顶上露出,“这看起来确实像是科幻小说里的情节。”

从表面上看,《我是人类》是一部科学纪录片,里面有大量关于人类大脑的信息,还有神经学领域近年的一些令人兴奋的进展。在片中,十几名神经病学家把观众带进他们的实验室,展示为人类头骨内部制造硬件的技术挑战。不过,到最后,影片的中心问题更像是一个存在主义问题:是什么让我们成为人类?技术如何让我们的物种进化——既帮助我们找回失去的能力,又推动我们超越过去的潜能?

脑机接口的希望在于,让盲人恢复视力,让聋人恢复听力,为我们的身体提供一种控制感。但是影片的后半段也追访了一些科学家和企业家,比如约翰逊,他们相信神经技术将在不久的将来给我们带来各种超能力。如果,除了治愈斯蒂芬的失明,我们还能改善他的视力,让他在黑暗中也能看见东西呢?如果一个设备不仅能让比尔再次移动他的手,还能让他用意念打字,那会怎么样呢?我们能治愈抑郁症吗?我们可否仅仅转动一个旋钮就能让自己变得更有同理心一点呢?

这些也不是科幻小说里的情节。埃隆·马斯克(Elon Musk)和马克·扎克伯格(Mark Zuckerberg)都投资于脑机接口,以期提升人类的能力。马斯克的Neuralink旨在提高人类的认知能力,使得人类能够与人工智能等竞争。扎克伯格的想法则更像是打造读心术机器。约翰逊的创业公司Kernel正致力于创建一个大脑接口,基于高分辨率的大脑活动开发针对现实世界的应用程序。

“我希望,我们能在技术进步中达到这样一个境界:我们不再受技术的限制,而是被技术赋予力量。”约翰逊在电影中说道,“因此,我们想要成为什么样的人,会是一个选择题。”

《我是人类》的导演想要在她的电影中体现这种赋能的理念,“我认为,当我们看到机器与大脑交互的新方法时,这些也将成为人类有趣的新选择,”萨瑟恩说道,“我觉得这种扩展的理念——将我们的能力和感官扩展到正常水平之外——非常有趣。”

不过,就目前而言,第一批真正的电子人类不会是像马斯克和扎克伯格这样的人,也不会是硅谷的技术精英。他们将会是像比尔、斯蒂芬和安妮这样的人,得益于大脑内置的一个小小的机械装置,他们将能够再次觉得自己是正常人。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

深度学习在新闻情感分析中的应用

背景介绍

随着互联网的快速发展,网络新闻服务已成为主要的网络信息载体。越来越多的民众通过网络新闻了解时事动态,并通过评论的形式表达观点、抒发情感。了解新闻内容中的情感,可以掌握舆论的态度和情绪变化,有助于企业实现舆情分析和监控,并及时应对处理突发的舆情事件。因此,自动识别网络新闻中所表达的正负面情感,具有重要的理论意义和实用价值。

本文在利用传统NLP技术处理海量新闻语料的基础上,结合深度学习技术,对网络新闻的情绪自动判别和预测进行了深入研究。通过使用基于tensorflow的keras深度学习框架,建立了CuDNNGRU+Conv1D深度神经网络,能够较为准确地识别网络新闻中正负面情感,为建立舆情平台打下了底层基础。

深度学习与NLP

深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习是一种特定类型的机器学习,具有强大的能力和灵活性,它将大千世界表示为嵌套的层次概念体系(由较简单概念间的联系定义复杂概念、从一般抽象概括到高级抽象表示)。

传统机器学习算法在NLP领域已经有了相当多的研究成果,比如应用很广泛的基于规则特征的SVM分类器,以及加上朴素贝叶斯方法的SVM分类器,当然还有最大熵分类器、基于条件随机场来构建依赖树的分类方法。但在传统的文本分类词袋模型中,在将文本转换成文本向量的过程中,往往会造成文本向量维度过大的问题。从2013年的word2vec开始,自然语言处理领域引爆了深度学习这个热点,目前取得重要成果的NLP任务大多在文本理解范畴,如文本分类,机器翻译,文档摘要,阅读理解等。本文使用了在文本分类中常用的深度神经网络——双向CuDNN加速门控循环单元(Bi-CUDA Deep Neural Network Gated Recurrent Unit,Bi-CuDNNGRU) 和卷积神经网络(Convolutional Neural Network, CNN)。

新闻情感深度模型实现

下文具体阐述了某公司搭建舆情平台中利用基于tensorflow的keras框架的新闻情感深度模型实现。通过前期不同结构深度神经网络的选择和后期多种超参数搭配调整,最终得到能够准确判断新闻情感的最优模型。

1.训练语料样本

样本为从舆情平台随机搜索出的30W条新闻数据,打上的标签为0~1之间的数,越靠近0其负面情感越强烈,靠近1则正面情感更强,在0.5附近情感为中性。

2.深度模型结构的选择

首先我们分别选取了单独的LSTMs和CNNs模型结构,经过研究发现:

循环神经网络:可以能够很好的捕获上下文信息,但它是有偏差的模型,后输入的词要比先输入的词占有更重要的地位,所以在获取整篇文档语义时这种方法就不那么有效了。在实际应用中发现文档靠前部分的权重偏小,而靠后位置的权重较大,不能很好的反应整篇文档的整体真实情感。

卷积神经网络:是个无偏的模型,对比RNN可以很好的获取文档的语义信息,但是为了简化卷积核都采用固定的窗口,难点在于确定窗口大小,太小的窗口可能丢失重要信息,太大的窗口又会扩大参数空间。在实际应用中发现其不能联系上下文语境识别情感内容,缺少长时记忆能力。

所以最终我们选择了GRU+Conv1D的模型结构,使模型具有长短时记忆的同时,能够无偏的判断整篇文档的情感。其中GRU是LSTM的一个变种,它将遗忘门和输入门合成了一个单一的更新门。同样还混合了细胞状态和隐藏状态,和其他一些改动。它比标准的LSTM模型要简单,也是非常流行的变体,其结构如下图所示。

3.各类超参数的选择

Bi-GRU由于其运行机制的问题,并行计算能力不强。我们改用了CuDNN加速的Bi-GRU后,能够最大限度的提升其并行计算能力,在输入单元为600,训练样本为27W时,使用GTX1070进行GPU加速运算,一个epoch的运行时间从30min提升到了3min,使密集调参能够实现。

最终,我们设定词向量维度为100 ;GRU输出维度是128,采取双向结构;Conv1d卷积核数目为64,长度为3,使用valid padding;优化器选用RMSprop,损失函数为categorical_crossentropy多类的对数损失。

4.epoch的选择

确定了模型的结构和参数后,我们将30W标签数据分为27W的训练数据和3W的测试数据,然后对模型进行了训练,训练结果如下图所示:

可以观察到训练集损失持续下降,而测试集损失在第二个epoch达到最低,之后由于出现过拟合开始增长,所以我们选择epoch数目为2。

5.情感模型完整运行流程

第一步,词嵌入:一种词的类型表示,具有相似意义的词具有相似的表示,是将词汇映射到实数向量的方法总称,在词嵌入中,词由密集向量表示,其中矢量表示单词投射到连续向量空间中。一个单词在向量空间中的位置是从文本中学习的,并且基于使用该文本时的单词。本次采用的是Keras嵌入层方法,建立的向量维度为100;

第二步,GRU层:词嵌入层输出的向量数据经过SpatialDropout1D后进入GRU层。GRU即Gated Recurrent Unit,为了克服RNN无法很好处理远距离依赖而提出了LSTM,而GRU则是LSTM的一个变体,GRU保持了LSTM的效果同时又使结构更加简单。本次采用的GRU输出维度是128,采取双向结构。

第三步,Conv1d层: 在一维输入信号上进行邻域滤波。CNN通过卷积操作能够很好的提取出数据中的潜在特征,而1d的卷积层能过够很好的应用到文本处理方面。本次采用的Conv1d卷积核数目为64,长度为3,使用valid padding。

第四步,并行GlobalAveragePooling1D与GlobalMaxPooling1D层:全局平均和最大池化,能够提取出每个Feature Map平均和最强的特征,最大限度减少参数量。本次采用的两个全局池化为并行层,最终都进入全连接层中。

第五步,全连接层:在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。本次采用的全连接层激活函数为softmax,输出标签数目为3。

第六步,训练方法:优化器选用RMSprop,损失函数为categorical_crossentropy多类的对数损失。

后续优化

根据舆情平台实时数据量,如果算力足够的情况下,可以采取多分支模型融合的方式,训练出一个更大的模型。这种融合技术可以使最终的模型效果好于其中每个单个的模型,但要求单个模型要有足够的差异才能使最终模型得到更多的提升,融合模型如下图所示。

此融合模型在原有模型的基础上增加了一个使用字向量做词嵌入并使用LSTM做为第一层的模型。增加的单模型效果不如原单模型,但是在模型融合之后最终模型效果有所提升。

总结与展望

进入深度学习时代后,不同的向量建模不仅方便了后续的自然语言处理,而且最关键的是这个过程可以依据不同的应用场景来encode不同的语言特征。这一过程比以往传统机器学习要灵活的多,我们不需要依赖语言学知识和经验去显式人工建模。但深度神经网络缺乏理论基础,可解释性差的缺点在NLP领域依旧存在。而且目前深度学习也未能有效的利用自然语言中的语言学知识,但是深度学习在NLP领域完善了表示学习,随着计算机算力的提升带来的模型准确性的大幅提高,较之以往的技术来说是一个巨大的飞跃。相信深度学习与NLP的结合将会越来越紧密,其在NLP各方面的应用也将继续快速发展,技术应用前景十分广阔。

 

来源:佰聆数据

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

算法偏见侦探

随着越来越多的算法不断渗透入社会的层层面面,如医疗机构、政府部门,对算法偏见的讨论越来越多。这个月,Nature 杂志评选出2018 年最受欢迎的十大科学长篇专题报道,其中,Rachel Courtland 一篇讨论算法偏见的文章成功当选。

2015 年,一位忧心忡忡的父亲问了卫生经济学家Rhema Vaithianathan 一个至今仍在她脑海中挥之不去的问题。

那天,一小群人聚集在宾夕法尼亚州匹兹堡市的一间地下室里,听Rhema Vaithianathan 解释软件如何能够解决虐待儿童的问题。每天,该地区的热线电话都会接到几十个怀疑附近有孩子处于危险之中的来电;其中一些来电会被呼叫中心的工作人员标记以便调查。但是这个系统并不能掌握所有的虐童案件。Vaithianathan 和她的同事们刚刚签订了一份价值50 万美元的合同,该合同要求他们开发出能够帮助解决该问题的算法。

卫生经济学家Vaithianathan 是新西兰奥克兰理工大学社会数据分析中心的联合主任,他用下面的例子告诉人们这个算法是如何工作的:例如,一个使用大量数据(包括家庭背景和犯罪记录)训练得到的工具,可以在接到电话时生成风险评分。 这可能有助于通知审核员标记出需要调查的家庭。

当Vaithianathan 邀请听众提问后,那位(前面提到的)忧心忡忡的父亲站起来发言。 他说,他曾经染上了毒瘾,并与毒瘾做过艰难的斗争。社工曾因此将他的孩子从家中带走。 但目前,他已经戒毒成功一段时间了。在电脑评估他的记录的时候,他为改变自己的生活所做的这些努力难道就毫无意义吗?换句话说:算法对他的评价是否不公平?

我们能打开人工智能的黑盒吗?

Vaithianathan向这位父亲保证,人们总是会改过自新的,他的努力不会被忽视。但是时至今日,即使这种自动化评估工具已经部署完毕,Vaithianathan 仍然在思考这位父亲的问题。计算机的计算结果正越来越多地被用于控制那些可能改变人一生的决定,包括应该拘留哪些被指控犯罪的被告、调查哪些可能存在虐待儿童现象的家庭,以及近来的「预测性警务」的趋势(社区警察应该关注哪些问题)。这些工具有望使决策更加一致、准确和严谨。 但是对这一系统的监管是有限的:没人知道有多少这样的系统正在被使用。这些算法的不公平性正在引起警惕。例如,2016 年,美国记者辩称,用于评估未来的犯罪活动风险的系统会歧视黑人被告。

纽约大学研究人工智能的社会影响的研究中心「AI Now」研究院的联合创始人Kate Crawford 表示:「我最担心的是,我们提出的系统本应改善问题,但最终却可能使问题恶化」。

在Crawford 和其他人提出警告时,政府正试图使软件更具公信力。去年12 月,纽约市议会通过了一项法案,他们成立了一个特别工作组,用于提出公开分享关于算法信息的方案的建议,并调查它们是否存在偏见。今年,法国总统Emmanuel Macron 表示,法国将公开政府使用的所有算法。在本月发布的指导意见中,英国政府呼吁那些在公共部门从事数据工作的人要公开透明,并负起责任。于五月底生效的欧洲通用数据保护条例(GDPR),也将促进算法问责制。

Rhema Vaithianathan 构建算法来帮助标记出潜在的儿童虐待案件

在这样的活动中,科学家们面临着一个复杂的问题:使算法公平究竟指的是什么?Vaithianathan 等为公共机构工作的研究人员,试图开发出负责任的、有效的软件。他们必须努力解决自动化工具可能引入偏见或加深现有的不平等现象的问题,尤其是如果这些工具正被嵌入到一个本已具有一定歧视性的社会体系中时。

「有一个相当活跃的研究团体,他们正试图开发从外部审核评估这类系统的方法」。

盐湖城犹他大学的理论计算机科学家Suresh Venkatasubramanian 指出,自动化决策工具所引出的公平性问题并不是一个全新的问题,人们使用评估犯罪或信用风险的精算工具已经有几十年的历史。随着大型数据集和更复杂模型的普及,人们越来越难以忽视它们在伦理方面的影响。「计算机科学家别无选择,我们必须开始进行这方面的研究。我们再也不能忽视算法的公平性,看看这样会发生什么」。

公平性的折中

2014年,匹兹堡所在的Allegheny 郡人类服务部门的官员打电话征求关于自动化工具的建议时,他们还没有决定如何使用它。但是他们知道自己应该对新系统采取开放的态度。该部门数据分析、研究和评估办公室副主任Erin Dalton 表示:「我极其反对把政府资金用于不能向社会说明我们在做什么的黑箱解决方案上」。该部门拥有一个建于1999 年的中央数据仓库,其中包含大量个人信息,包括住房、精神健康状态和犯罪记录。Dalton说,Vaithianathan 的团队在关注儿童福利方面做出了巨大努力。

2016年8 月,Allegheny 家庭筛查工具(AFST)被推出。对于每个打进热线的电话,呼叫中心的员工都会看到由自动风险评估系统生成的得分(1 至20 分),其中20 分对应于被认定为最高风险的个案。AFST 预计这些高得分家庭的孩子最有可能在两年内被从家中带走,或者因为打电话者怀疑这些孩子受到了虐待而再次被送到郡里(郡县正在放弃第二种评价指标,该指标似乎并不能准确反映出需要进一步调查的案件)。

位于加利福尼亚州的斯坦福大学的独立研究员Jeremy Goldhaber-Fiebert 仍然在评估这个工具。但Dalton 说,初步的结果表明,该工具是有帮助的。她表示,采用该工具后,呼叫中心工作人员提交给调查人员的案件中似乎包含了更多有着合理的担忧的实例。电话审核员似乎也会对类似的案件做出更加一致的决定。尽管如此,他们的决定并不一定与算法的风险评分相符;郡政府希望使两者的结果更接近一致。 

改革预测性警务

随着AFST 被部署,Dalton 希望得到更多帮助,以确定该系统是否可能存在偏见。2016 年,她找来匹兹堡卡内基梅隆大学的统计学家Alexandra Chouldchova,帮助她分析该软件是否会歧视特定群体。Chouldchova 此前已经在考虑算法中的偏见问题,而且将参与到一个已经引发了关于这个问题的广泛辩论的案件。

同年5 月,新闻网站ProPublica 的记者报道了Broward County 法官使用的商业软件,这些软件有助于判定一个被指控犯罪的被告是否应该在审判前被从监狱中释放出来。记者们说这个软件对黑人被告有偏见。这个被称为COMPAS 的工具可以生成一个得分,它被用来衡量一个人在两年内再次犯罪的可能性。

Propublica团队调查了数千名被告的COMPAS 得分,这些分数是该团队通过公共记录请求获得的。通过比较黑人和白人被告,记者们发现,「假正例」(被判断为有罪,实际无罪)的黑人被告与白人被告的比例是严重失调的:黑人被COMPAS 列为高风险人群,但实际上他们随后却没有被指控罪行。

该算法的开发者是一家总部位于密歇根州的名为Northpointe (现在是俄亥俄州坎顿市的Equivant)的公司,该公司认为这个工具没有偏见。他们说,COMPAS 还能够很好地预测被归类为高犯罪风险人群的白人或黑人被告是否会再次犯罪(这是一个「预测性平价」的例子)。Chouldechova 很快发现,Northpointe 和ProPublica 的公平度量是对立的。预测性平价、相等的假正例错误率和相等的假负例错误率都可以作为体现「公平」的方式,但是如果两个群体之间存在差异——例如白人和黑人被再次逮捕的概率(参见后文「如何定义『公平』」章节) ,那么在统计学上,就不可能实现完全的公平。伦敦大学学院研究可靠性机器学习的研究员Michael Veale 表示:「鱼和熊掌不可兼得!如果你想在某一方面做到公平,那么在另一个听起来也很合理的情况下,你可能必然做不到公平」。 

如何定义「公平」?

研究算法中的偏见的研究人员说,定义公平的方法有很多,但这些方法有时候是矛盾的。

我们不妨想象一下,在刑事司法系统中使用一种算法为两组嫌疑人(用蓝色和紫色表示)打分,从而衡量他们再次被捕的风险。历史数据表明,紫色组被捕的概率更高,因此模型会将更多的紫色组的人归类为高危人群(见下图顶部)。即使模型开发人员试图不直接告诉模型一个人应该被归为蓝色还是紫色,以避免产生偏见,但这种情况也会发生。这是因为用作训练输入的其他数据可能与蓝色或紫色相关。

尽管高风险状态不能完美地预测该嫌疑人是否会再次被捕,但该算法的开发者试图使预测结果公平:对于这两组人来说,「高风险」指的是有2/3 的几率在两年内再次被捕。(这种公平称为预测性平价。)未来的逮捕率可能不会遵循过去的模式,但是在这个简单的例子中,假设它们确实如预期的那样:蓝色组的3/10 和紫色组的6/10(以及每组中2/3被标记为高风险的人)确实被再次逮捕了(见下图中底部的灰条)。

该算法满足预测性平价(无论黑人和白人被告是否有相同的风险评分总体准确率),但是仍然存在一个问题。在蓝色组中,7 人中有1 人(14%)被误认为是高危人群,而在紫色组中,4 人中有2 人(50%)被误认为高危人群。因此,紫色个体更有可能成为「假正例」——被误认为高风险。

只要蓝色组和紫色组的成员再次被捕的概率不同,那么就很难实现预测性平价和相等的假正例率。从数学上来说,要做到这一点同时满足第三项公平标准(除了预测性平价和相等的假正例率)是不可能的:相等的假负例率(被认定为低风险但随后又再次被捕的个体;在上面的例子中,紫色和蓝色组的假负例率恰好相等,同为33%)。

一些人认为紫色组的假正例率更高体现出了算法的歧视性。但其他研究人员认为,这并不一定是算法存在偏见的确凿证据。这种不平衡还可能有一个更深层次的原因:紫色组可能一开始就不公平地成为了逮捕的目标。根据过去的数据,该算法能够准确地预测更多的紫色组成员将被再次逮捕。因此,我们可以认为该算法(甚至可以确定)有事先存在的社会偏见。

事实上,从数学角度来说,还有更多的方式来定义公平:在今年2 月的一次会议上,计算机科学家Arvind Narayanan 发表了题为「21 个公平性的定义及其策略」的演讲,他指出还有其它的定义方式。一些调查过ProPublica的案例的研究人员,包括Chouldchova,指出「不相等的错误率是否表明算法存在偏见」尚不清楚。斯坦福大学的计算机科学家Sharad Goel 说,他们反而反映了这样一个事实:即算法对一个群体比对另一个群体更难做出预测。「事实证明,这或多或少是一种统计学的假象」。

对于某些人来说,ProPublica 的案例凸显了这样一个事实,即许多机构缺乏资源来寻求并正确评估算法工具。芝加哥大学的数据科学与公共政策中心的主任Rayid Ghani 表示:「如果有的话,这样的情况告诉我们的是:雇佣Northpointe的政府机构没有给出明确的衡量算法公平性的定义。我认为,各国政府需要学习并接受培训,学习如何寻求这些系统,如何定义算法应该被衡量的指标,以及如何确保供应商、咨询师和研究人员提供的系统实际上是公平的」。

Allegheny郡的经验表明要解决这些问题是多么困难。Chouldchova受邀在2017 年初开始研究Allegheny 的数据,她发现这个工具也存在类似统计上的失衡现象。她说,该模型有一些「非常不理想的特性」。在不同的种族之间的错误率的差异远远高于预期。而且,由于尚不清楚的原因,被认为受虐待风险最高的白人儿童被从家中带走的可能性小于被认为受虐待风险最高的黑人儿童。Allegheny 和Vaithianathan 的团队目前正在考虑转而使用另一种模型。「这可能有助于减少不公正的现象」,Chouldchova 说。

尽管统计失衡是一个有待解决的问题,但算法中潜藏着更深层次的不公平性(它们可能会加剧社会的不公正现象)。例如,像COMPAS 这样的算法可能原本是旨在预测未来犯罪活动的可能性,但它只能依赖于可测量的模式:例如被逮捕。警务实践的差异可能意味着一些社会团体成为被逮捕几率更高的目标,他们可能因为会在其他社会团体中被忽视的罪行而被捕。David Robinson是Upturn 的执行董事(Upturn 是一个位于华盛顿特区的非营利性社会司法组织),他说:「即使我们准确地预测了一些案件,但我们在准确地预测案件的同时可能也对一些人群采取了不公正的对待」。这在很大程度上将取决于法官在多大程度上依赖此类算法来做出裁决,而我们对此知之甚少。

新泽西州卡姆登市的警察使用自动化工具来帮助确定哪些地区需要巡逻。

Allegheny 的工具也受到了类似的批评。作家、政治学家Virginia Eubanks 认为,不管这个算法是否准确,它都是基于有偏见的输入工作的,因为黑人和混血家庭更有可能被热线电话所提到。此外,由于该模型依赖于Allegheny 体系中的公共服务信息,而且使用此类服务的家庭普遍贫穷,该算法会对较贫穷家庭进行更严格的审查,从而对这些家庭更加不公平。Dalton承认,现有的数据是一个我们不得不面对的限制,但她认为人们仍然需要这个工具。Allegheny 郡今年早些时候在AFST 网站上回应Eubanks时表示:「贫困这一不幸的社会问题并不能否认我们具有『为那些需要我们关怀的儿童提高我们的决策能力』的责任!」

透明度及其限制

尽管一些机构建立了自己的工具或商业软件,但学者们发现自己在公共部门算法方面的工作有很大的市场需求。在芝加哥大学,Ghani 一直在与一系列机构合作,包括芝加哥公共卫生部门,他们一起研究一种预测哪些家庭可能藏有对健康有危害的铅的工具。在英国,剑桥大学的研究人员与Durhan 郡的警方合作,建立了一个模型,帮助他们确定可以对哪些人采取干预方案,作为起诉的替代办法。Goel 和他的同事今年建立了斯坦福计算政策实验室,该实验室正在与包括旧金山地区检察官办公室在内的政府机构进行合作。地区检察官办公室的分析师Maria McKee 认为,与外界的研究人员的合作关系至关重要。他说:「我们都知道什么是对的,什么是公平的,但我们往往没有工具,也没有进行研究,来准确、条理清晰地告诉我们如何实现这一目标」。

人们非常希望提高案件的透明度,这与Allegheny 采取的方针一致。Allegheny 郡与利益相关方进行了接触,并向记者敞开大门。AI Now 研究所的Crawford 说,当算法是「不能接受算法审核、审查或公开辩论的封闭循环」时,这样通常会激化问题。但是现在还不清楚如何使算法更加开放。Ghani 认为,简单地公布一个模型的所有参数并不能提供对其工作机制的解释。透明度也可能与隐私保护相冲突。在某些情况下,透露太多关于算法工作原理的信息可能会让不怀好意的人攻击这个系统。

Goel说,问责制的一大障碍是,这些机构往往不会收集它们如何使用这些工具或这些工具的性能的数据。「很多时候并不存在所谓的透明度,因为没有什么信息是可以分享的」。例如,加利福尼亚州的立法机构起草了一份法案,寻求能够帮助人们减小被告必须支付保释金的几率的风险评估工具,然而这种做法因为会惩罚低收入被告而受到诟病。Goel 希望该法案强制要求收集法官之所以不同意使用该工具的支撑案例的数据,以及包括判决结果在内的每个案件的具体细节。他说,「我们的目标是从根本上减少监禁,同时维护公共安全,所以我们必须知道这样做是否有效」。

Crawford说,我们将需要一系列「正当程序」基础设施来确保算法的可靠性。今年4 月,AI Now 研究所为希望可靠地采用算法决策工具的公共机构制定了一个框架;除此之外,该研究所呼吁征求社区的意见,并让人们能够对与他们的决议提出上诉。

人工智能研究存在盲点

许多人希望法律能够强制执行这些目标。Solon Barocas 是一名康奈尔大学的研究人工智能伦理和政策问题的研究员,他说,实际上曾经有过一些这样的先例。在美国,一些消费者保护法规在对作出不利于公民信用评价的决定时,会给予公民解释的权利。而Veale 说,早在20 世纪70 年代,法国就立法赋予公民解释权和对自动裁决提出异议的权利。

最大的考验将是5 月25 日生效的欧洲GDPR。某些规定(例如获得有关自动决策案件所涉逻辑的有意义信息的权利)似乎促进了算法问责制。但英国牛津互联网研究所的数据伦理学家Brent Mittelstadt 表示,对于那些希望评估算法公平性的人来说,GDPR 实际上可能会制造一个「法律雷区」,从而实际上妨碍算法公平。要检验一个算法是否在某些方面存在偏见(例如,它是否会偏袒一个种族,而歧视另一个种族),最好的方法就是了解系统涉及到的人的相关属性。但是,Mittelstadt 说,GDPR 对使用这些敏感数据的限制十分严格,处罚也非常高,以至于那些有能力评估算法公平性的公司可能没有什么动力去处理这些信息。 他说:「这似乎会限制我们评估算法公平性的能力」。

那些让公众对算法有一定了解、并吸引公众关注的GDPR 法案的作用范围也存在一些问题。如前所述,一些GDPR 规则仅适用于完全自动化的系统,这可以排除「算法对决策有一定影响,但应该由人做出最后决定」的情况。Mittelstadt 说,这些细节最终应该在法庭上澄清。

审核算法

与此同时,研究人员正在推进检测算法中的偏见的策略,这些算法尚未对公众开放审核。Barocas 说,公司可能不愿意讨论他们将如何解决公平问题,因为这将意味着首先要承认他们的公平性存在问题。他说,即使他们这样做了,他们根据算法采取的行为中的偏见可能会有所改善,但不会从根本上消除偏见。「因此,任何有关这个问题的公开声明,都不可避免地承认这个问题依然存在」。但最近几个月,微软和Facebook 都宣布将开发工具来检测算法偏见。

一些包括波士顿东北大学的计算机科学家Christo Wilson 在内的研究人员,试图从外部揭示商业算法的偏见。 比如,Wilson创造了一些虚拟的乘客,他们声称自己在寻找Uber 出租车,他还在一个求职网站上上传了虚拟履历,以测试性别偏见。还有人正在开发一些软件,他们希望这些软件能够被广泛用于自我评估。今年5 月,Ghani 和他的同事发布了名为Aequitas的开源软件,帮助工程师、政策制定者和分析师审核机器学习模型中的偏见。数学家Cathy O’Neil 一直在强调用算法做出决策的危险性,她成立了一家公司,私下与一些公司进行了合作,审核他们的算法公平性。

一些研究人员已经开始呼吁,在刑事司法应用和其他领域,人们应该从狭隘地专注于建立预测算法的狂热中退一步。例如,一个工具可能擅长预测谁将不会出现在法庭上,但是最好问问为什么他们不会出现。或许,他们应该设计一些干预措施,比如短信提醒或交通援助,这可能会提高他们出现在法庭上的概率。纽约大学法学院的民权律师、种族正义倡导者Vincent Southerland 说:「这些工具通常帮助我们做出一些小的修正,但我们需要的是全面的改变」。 他表示,围绕算法鲁棒性展开的激烈辩论「迫使我们所有人询问和回答这些真正棘手的基本问题,这些问题涉及我们正在使用的系统以及它们的运作方式」。

Vaithianathan目前正在将她的儿童虐待预测模型扩展到科罗拉多州的Douglas 和Larimer 郡,她认为,建立更好的算法是十分有价值的(即使它们所嵌入的总体系统是有缺陷的),也就是说,「算法不能被硬生生地嵌入这些复杂的系统里」。她说到,它们必须在理解更广泛的具体应用背景的专家的帮助下被实现。但是即使是最好的工作也会面临挑战。她表示,在缺乏直接的答案和完美的解决方案的情况下,提高算法的透明度是最好的选择。「我总是说: 如果你不能做到完全正确,那就让自己变得更诚实」。

 

 

原文链接:http://tech.ifeng.com/c/7isQvcfDW8d

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

AI的深度学习在汽车上应用

在未来的某个时候,人们必定能够相对自如地运用人工智能,安全地驾车出行。这个时刻何时到来我无法预见;但我相信,彼时“智能”会显现出更“切实”的意义。与此同时,通过深度学习方法,人工智能的实际应用能够在汽车安全系统的发展进步中发挥重要的作用。而这些系统远不止仅供典型消费者群体掌握和使用。

深度学习这一概念在几十年前就已提出,但如今它与特定的应用程序、技术以及通用计算平台上的可用性能更密切相关。深度学习的“深度”层面源于输入层和输出层之间实现的隐含层数目,隐含层利用数学方法处理(筛选/卷积)各层之间的数据,从而得出最终结果。在视觉系统中,深度(vs.宽度)网络倾向于利用已识别的特征,通过构建更深的网络最终来实现更通用的识别。这些多层的优点是各种抽象层次的学习特征。

例如,若训练深度卷积神经网络(CNN)来对图像进行分类,则第一层学习识别边缘等最基本的东西。下一层学习识别成形的边缘的集合。后续图层学习识别诸如眼或鼻这样的形状的集合,而最后一层将学习甚至更高阶(如面部)的特征。多层更擅长进行归纳,因为它们可以学习原始数据和高级分类之间的所有中间特征。如图1所示,这种跨越多层的归纳对于最终用例是有利的,如对交通标志进行分类,或者尽管存在墨镜、帽子和/或其他类型的障碍物,也可能识别特定面部。

深度学习的“学习”层面源于对分层网络如何在给定大量已知输入及其期望输出的情况下产生更准确结果(图2)所需的训练(反向传播)的迭代。这种学习减少了那些迭代产生的错误,并最终获得分层函数的结果,以满足整体系统需求,并为目标应用程序提供极其稳健的解决方案。这种学习/分层/互连类型类似于生物神经系统,因此支持人工智能的概念。

尽管深度学习具有效力,但其在实际应用中也遇到了一些挑战。对于容易受到系统限制因素(如总体成本、功耗和扩展计算能力)影响的嵌入式应用程序而言,在设计支持深度学习功能的系统时必须考虑这些限制因素。开发人员可以使用前端工具,如Caffe(最初由加州大学伯克利分校开发的深度学习框架)或TensorFlow(谷歌的发明)来开发总网络、层和相应的功能,以及目标最终结果的培训和验证。完成此操作后,针对嵌入式处理器的工具可将前端工具的输出转换为可在该嵌入式器件上或该嵌入式器件中执行的软件。

TI深度学习(TIDL)框架(图3)支持在TI TDAx汽车处理器上运行的深度学习/基于CNN的应用程序,以在高效的嵌入式平台上提供极具吸引力的高级驾驶辅助系统(ADAS)功能。

TIDL框架为软件可扩展性提供快速嵌入式开发和平台抽象;在TI硬件上实现用于加速CNN的高度优化的内核,以及支持从开放框架(如Caffe和TensorFlow)到使用TIDL应用程序编程界面的嵌入式框架进行网络转换的转换器。

 

 

原文链接:http://wemedia.ifeng.com/84804028/wemedia.shtml

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

利用深度学习教AI穿T恤,输入视频就能训练机器人跳舞

一个新的计算机程序能利用YouTube影片教会虚拟角色新的全身动作,如舞蹈、杂技特技和武术动作。11月刊的《ACM图像交易》中提到了这种系统,它可以为电影和影片游戏提供更多身体协调的角色,或者作为机器人的虚拟训练基地。这个新程序利用了一种被称为人工神经网络的计算机代码,它仿真了人脑处理信息的方式,通过对照大约10万张有不同姿势的人的照片,对虚拟角色进行训练。

计算机程序教会虚拟角色使用强化学习来依次做出演员的动作。

该程序首先整理了一个演员在影片每一帧中的姿势,然后,它教虚拟角色使用强化学习来依次做出演员的动作,并当角色与影片中演员的姿势相匹配时,给它一个虚拟的奖励。加州大学柏克莱分校的计算机科学家JasonPeng及其同事将YouTube影片输入该系统,教会了虚拟角色做翻筋斗、后空翻、跳跃和其他特技。

人工智能:深度学习教会AI机器系统自己穿衣服

乔治亚理工学院的研究团队利用深度学习算法,将布料模拟融入学习框架,教会AI机器系统自己穿衣服。让机器学会自己穿衣服一直是个难题,因为衣服的布料多种多样,材质性质各不相同,而且在穿衣过程中,衣服和身体会发生频繁而复杂的相互作用。研究人员设计了合适的奖励函数和惩罚函数,奖励正确的穿衣行为,惩罚可能导致衣物撕裂的行为,以便使其学习强大的穿衣控制策略。

使AI学会模拟复杂运动的技能。

研究人员将整个穿衣任务划分为可管理控制的多个子任务,比如抓住T恤的边缘或拉袖子,AI系统会单独学习每个子任务,每个子任务都需要数小时的模拟和优化,最终组合起来完成穿衣服这一目标任务。研究人员表示,使AI学会模拟复杂运动的技能,适应不断变化的环境条件,在一定程度上推动了机器人技术的发展。

机器人研究:神经科学家借助机器人老鼠研究社会行为

研究人员在加州圣地亚哥举行的2018年神经科学学会年会上展示了未发表的研究成果。研究小组之前创建了一个带有手动控制的机器人老鼠。新模型看起来像一个大型计算机鼠标。机器人包含一个电池,电机和微型计算机,它们位于3D打印的外壳内。它的最高速度约为每秒3.2英尺。红外深度感应摄像头位于机器人和老鼠的上方。机器人的机载计算机指示机器人做出响应。根据它的设置,当老鼠靠近时,机器人可以表现友好,向老鼠移动。

这个大型鼠标能用来分析自闭症行为。

机器人具有有限数量的基本行为。到目前为止,它只能朝着或远离活鼠移动。但希思的团队正致力于为老鼠运动制定更精确的反应。圣地亚哥加州大学的神经科学家对机器人进行特定的反应编程,以便研究人员可以用它来研究更复杂的社会行为。自闭症研究人员可以在与机器人互动时,研究自闭症的大鼠模型。

 

原文链接:http://wemedia.ifeng.com/86100204/wemedia.shtml

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

AI Can Now Fix Your Grainy Photos by Only Looking at Grainy Photos

What if you could take your photos that were originally taken in low light and automatically remove the noise and artifacts? Have grainy or pixelated images in your photo library and want to fix them? This deep learning-based approach has learned to fix photos by simply looking at examples of corrupted photos only.

The work was developed by researchers from NVIDIA, Aalto University, and MIT, and is being presented at the International Conference on Machine Learning in Stockholm, Sweden this week.

Recent deep learning work in the field has focused on training a neural network to restore images by showing example pairs of noisy and clean images. The AI then learns how to make up the difference. This method differs because it only requires two input images with the noise or grain.

Without ever being shown what a noise-free image looks like, this AI can remove artifacts, noise, grain, and automatically enhance your photos.

“It is possible to learn to restore signals without ever observing clean ones, at performance sometimes exceeding training using clean exemplars,” the researchers stated in their paper. “[The neural network] is on par with state-of-the-art methods that make use of clean examples — using precisely the same training methodology, and often without appreciable drawbacks in training time or performance.”

Using NVIDIA Tesla P100 GPUs with the cuDNN-accelerated TensorFlow deep learning framework, the team trained their system on 50,000 images in the ImageNet validation set.Video line:https://youtu.be/pp7HdI0-MIo

To test the system, the team validated the neural network on three different datasets.

The method can even be used to enhance MRI images, perhaps paving the way to drastically improve medical imaging.

“There are several real-world situations where obtaining clean training data is difficult: low-light photography (e.g., astronomical imaging), physically-based rendering, and magnetic resonance imaging,” the team said. “Our proof-of-concept demonstrations point the way to significant potential benefits in these applications by removing the need for potentially strenuous collection of clean data. Of course, there is no free lunch – we cannot learn to pick up features that are not there in the input data – but this applies equally to training with clean targets.”

 

原文链接:https://news.developer.nvidia.com/ai-can-now-fix-your-grainy-photos-by-only-looking-at-grainy-photos/

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

 

 

机器学习可以生成任何线条图片的 ASCII 码绘画

人类使用计算机创造的艺术形式已被计算机学会

回顾 1960 年代,贝尔实验室的天才们想出了用计算机语言来绘画的方法。这种绘画形式叫做 ASCII 绘画,尽管这种绘画需要使用计算机,但很难让计算机自动生成图片。尽管 ASCII 绘图生成器已经存在了很多年,但他们始终不能很好的转换复杂的手工图片。

现在,就读于大阪大学的医学院研究生 Osamu Akiyama,同时也是名 ASCII 画家,创造出了通过模拟人脑运作机制的一种机器学习架构——神经网络,相比手工,这可以生成任何线条图片的 ASCII 码绘画。

ASCII 码绘画是通过使用美国信息交换标准代码(一种用来将机器语言翻译成人类语言的编码系统)中所定义的数字与字母创造出来的。有趣的是,秋山构建的神经网络使用日本字来生成图片,而非使用 ASCII 码来生成图片。

 

秋山选取日本流行的留言板 5channel 与 Shitaraba 上的 500 个 ASCII 码绘画来训练神经网络模型。秋山在邮件跟我吐槽,说目前遇到的主要问题在于训练的手工 ASCII 码绘画由于来自于网络,所以并没有引用相关原始图片。这意味着这样的算法很难学习线条图片是如何转换成文字图片的。

为了解决这样的问题,秋山使用了其他研究者的神经网络去清洗图像,这样就可以将 ASCII 码绘画转换成原始线条图片。通过这种方式估计出的原图,就可以用来作输入来训练神经网络学习用哪些字符来生成相应 ASCII 码图像。

通过这样的训练,神经网络就可以生成与手工相媲美的 ASCII 码图片。秋山基于图片相似度算法,将这种图片和其他生成器以及手工生成的图片作比较,发现机器学习生成的 ASCII 码图片与原图更具相似性。

ASCII 码图片的对比:第一行为原图。第二、三行为使用免费提供的 ASCII 生成器生成的图片。第四、行为通过秋山的神经网络生成的图片,而第五行是一位 ASCII 码画家所画。

秋山的论文表明:「确实,对比人工 ASCII 绘画,由算法自动生成的 ASCII 码图像与原图更具相似性。」因此,我们可能需要在未来要求人类评论家重新评估艺术的质量。

秋山并非首个将神经网络引入 ASCII 艺术的。之前也有少数几个相关项目,比如 ASCII NET 和 DEEPASCII 同样探究如何将深度学习引入这一特殊的艺术形式。

尽管这种算法可以将原图生成最具可信度的 ASCII 效果图,秋山依然倾向人类在 ASCII 绘画的作用。

他电邮我说:「相比其他现存工具,我可以通过这种方式生成最像人工图片的 ASCII 图像,但始终还是手工完成的图片更美。」

想了解更多秋山算法生成图片的例子,你可以点击这里的 Github 链接(http://github.com/OsciiArt/DeepAA)。

 

原文链接:http://tech.ifeng.com/a/20180810/45112619_0.shtml

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

 

“换脸”也逃不过数字侦探法眼

深度伪造视频有了鉴证工具

科技日报纽约8月8日电 (记者冯卫东)由人工智能技术合成的虚假视频已达到几可乱真的水平,美国国防部设立的研究项目现已开发出识别这些虚假视频的首批工具。制作虚假视频的最常见技术是使用机器学习技术将一个人的脸换到另一个人的脸上。由此产生的视频,也被称为深度伪造(Deepfake)视频,不仅制作简单而且逼真度惊人,经熟练的视频编辑人员进行进一步调整后,还可使其看起来更加真实。

深度伪造视频使用了被称为“生成建模”的机器学习技术,其允许计算机在生成具有统计相似性的假实例之前从真实数据中学习。最新的深度伪造技术拥有两个神经网络——生成对抗网络(GAN),其共同工作可产生更有说服力的虚假视频。

美国国防高级研究计划局(DARPA)为此设立了“媒体鉴证”项目,以开发能识别深度伪造视频的工具。该项目最初旨在实现现有鉴证工具的自动化,但最近将重点转向了人工智能生成的虚假视频。项目负责人马修·特鲁克表示,研究人员已在GAN操纵的图像和视频中发现了微妙的线索,从而使其能够检测到变化的存在。

纽约州立大学奥尔巴尼分校吕思伟教授领导的团队开发了一种非常简单的识别技术。研究人员在观察深度伪造视频时发现,GAN技术生成的人脸很少眨眼,其一旦眨眼,眼球运动很不自然。这是因为,深度伪造视频是基于对静止图像的训练生成的,而静止图像的眼睛一般来说都是睁着的。

参与DARPA媒体鉴证项目的其他团队也在探索自动捕捉深度伪造视频的类似技巧,如奇怪的头部动作、特别的眼睛颜色等。

达特茅斯大学数字鉴证专家汉尼·费瑞德认为,视频伪造者和数字侦探之间的人工智能博弈才刚刚开始,机器学习系统经训练后往往可超越新的鉴证工具。吕思伟表示,熟练的伪造者可通过收集显示一个人眨眼的图像来绕过他的眨眼工具,但其团队目前已经开发出一种更有效的新技术,要比伪造技术略胜一筹。

原文链接:http://www.chinanews.com/cj/2018/08-10/8595263.shtml

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

Elon Musk表示,特斯拉Autopilot视觉神经网络研究进展顺利

根据Elon Musk分享的项目研究进展可知,特斯拉(Tesla)离全自动无人驾驶目标越来越近。关于加强版Autopilot,在发布支持全自动无人驾驶系统之前,近期将先发布改进的半自动驾驶辅助系统。Musk在Twitter上谈到了加强版Autopilot系统的研究进展,他表示Autopilot的视觉系统是其改进的核心,目前来看一切顺利。

@adrianvolts @TeslaMotors @TeslaMotorsClub @Teslarati Tesla软件团队每周工作七天,希望尽快完成测试和验证。快了。

——Elon Musk(@elonmusk)2016年12月18日

车主的不满是可以理解的,因为购买汽车时,公司宣称所有汽车都配置有特斯拉“无人驾驶预装硬件”。而由于特斯拉相对应的软件产品开发测试工作仍在继续,所以新车的特斯拉Autopilot系统还不能正式使用,必须等到增强版Autopilot正式发布。

然而,正如名字所暗示的,增强版自动驾驶仪确实应当比之前的版本的性能更好。特斯拉表示,增强版Autopilot系统将实现车速与周围交通状况自动匹配、车道保持、自动变道、自动适应不同高速公路、自动选择下高速路口、自动停车以及自动进出车库等功能。

特斯拉视觉是实现这一切的关键。该技术主要通过神经网络,利用图像处理技术识别周围对象并躲避障碍物。Musk在另一篇推文中表示,这部分技术的研究进展顺利,而目前公司所需要做的就是在各种环境下,测试新系统的运行状况——这意味着将花大量时间测试新系统。

目前,特斯拉Autopilot视觉神经网络工作良好。仅需要大量的上路驾驶测试以验证其在各种环境下的性能。

——Elon Musk(@elonmusk)2016年12月22日

2016年即将过完,看来增强版Autopilot不太可能在今年年底发布,但它可能在明年年初与大家见面。这对特斯拉下一步自动驾驶计划也是个好消息,因为Musk计划在2017年年底,进行特斯拉全自动无人驾驶的跨国测试。