人工智能

AI进军娱乐业之后 好莱坞已经无关紧要!

20年前,娱乐行业由少数几家制片公司和单一的广播公司主导,是一个几乎被垄断的市场。如今,娱乐业由物质现实走向数字虚拟,讲故事的人和媒体数量激增,这仅仅是个开始。

柰飞(Netflix)公司几乎一夜之间颠覆了娱乐业,2010年,影片出租商百视达(Blockbuster)公司申请破产,而Netflix公司的市值却从同年的80亿美元增长到8年后的1856亿美元。今年,预计该公司仅在内容方面的投入就达到150亿美元。与此同时,像谷歌Daydream和Oculus这样的VR平台才刚刚开始行动,混合现实玩家如Dreamscape将改变我们体验故事、漫游异国的方式,甚至是未来教室的呈现形式。

用IAC董事长、福克斯和派拉蒙前高管巴里·迪勒(Barry Diller)的话来说,“好莱坞现在已经无关紧要了。”

在接下来分为两部分的系列文章中,我将深入探讨娱乐业未来发展的三个趋势:基于人工智能的内容管理、参与式故事构建和沉浸式VR/AR/MR 世界。今天,我将分享的是人工智能在生产按需定制内容以及与创意人员协作方面所扮演的创新性角色。

人工智能娱乐助理

从漫威的贾维斯到《2001:太空漫游》中的HAL 9000,对于我们大多数人来说,电影让我们对人工智能的概念变得鲜活起来。50多年后的今天,人工智能为故事赋予了更多生命。随着虚拟现实的崛起,人工智能开始被用于创设拥有复杂故事线的配角,甚至能够让马龙·白兰度、艾米·怀恩豪斯重返大屏幕。

尽管人工智能还处于初级阶段,但其已被用来呈现虚拟化身,不久以后,你甚至能够根据个人喜好来定制这种虚拟化身。在未来,人工智能在娱乐业将扮演更多的角色。你可能已经看到了复杂算法所带来的变化,算法可以预测出你在Netflix上观看一部电影或电视剧的确切几率,还可以在Spotify上为你建立了一个经过优化、个性化的歌曲推荐列表。

而人工智能娱乐助理的发展才刚刚起步。

就像谷歌助理或华为的小艺,人工智能的发展进步很快就会让AI助理基于用户的心情来搜索歌曲或挑选电影,甚至是基于用户的闯关层级来个性化其游戏角色。此外,AI助理的应用还延展到家居环境,利用面部识别技术获取的数据,数字化设备即时做出个性化的响应,从而满足用户的需要。

策划内容生成

然而,除了个性化推荐,人工智能现在还可以进行内容生成,如增加音乐曲目、开发全新的情节线,甚至让你最喜欢的演员重返屏幕。

以人工智能运动迁移技术为例。加州大学伯克利分校的一组研究人员利用生成对抗网络(GAN)的机器学习子集开发了一种人工智能运动转移技术,可以将专业人士的舞蹈动作叠加到任何业余人士(“目标”)的无缝视频中。

Caroline Chan和她的团队首先将目标的动作映射到一个“火柴人”上,创建了一个框架数据库,每个框架都与“火柴人”的姿势相关联。然后,他们使用这个数据库来训练GAN,从而根据给定的“火柴人”的姿势生成目标人物的图像。将源视频中的一系列姿势逐帧映射到目标,很快,任何人都可能像迈克尔·杰克逊那样太空漫步,像金吉·罗杰斯那样舞动,或者在虚拟舞台上加入传奇舞者的行列。

这有点让人想起人工智能生成的“换脸技术(deepfakes)”,在电影中使用生成式对抗网络可能会极大地影响娱乐业发展,让传奇演员重返银幕,让任何人都能成为虚拟明星。

随着数字艺术家们越来越多地使用高保真三维扫描技术来增强计算机生成图像(CGI)技术的准确再现,人工智能即将给CGI带来重大升级。

输入数不清的连续镜头,人工智能系统可以被训练,从而完善角色面部动作和表情的呈现效果,以便在任何CGI模型上复制它们,无论是新生成的面孔,还是你最喜欢的演员的迭代。想让玛丽莲·梦露出演一部新创作的《速度与激情》电影吗?这不再是一个难题。Digital Domain这样的公司,正努力为这样的未来铺平道路,该公司的视觉效果艺术家已经使用了专有的人工智能系统将人类角色集成到CGI角色设计中。正如Digital Domain的主管达伦·汉德勒所解释的那样,“我们实际上可以把演员的表演(尤其是面部表演)转换到数字角色上。近期,AI-CGI的联合在电影《复仇者联盟4:终局之战》的视觉效果呈现中就占据了中心位置,无缝地重现了反派灭霸的面部表情。

甚至在电子游戏领域,升级算法也被用来复兴儿童时期的经典电子游戏。Topaz Labs是一家已将人工智能升级技术商业化的公司。尽管仍需要一些手工制作,但GANs的使用极大地加快了这一过程,并有望对游戏视觉效果产生非同寻常的影响。然而,这些生成对抗网络是如何工作的呢?在对数百万对低分辨率和高分辨率图像进行GAN训练后,算法的一部分尝试从低分辨率图像中构建高分辨率的帧,而第二部分则对输出进行评估。由于生成和评估的反馈循环驱动GAN的改进,随着时间的推移,升级过程只会变得更有效。想象一下,在未来,我们可以通过点击一个按钮来转换任何低分辨率的电影或图像,并赋予其显著的细节。

由人工智能所助推升级的不只是电影和游戏产业。如今,从个性化曲目到旋律创作,人工智能词曲作者正在音乐产业中产生重大影响。

AI词曲作者和创意合作者

虽然人工智能初创公司并不打算取代你最喜欢的歌手,但它们正跃上音乐舞台,筹集了数百万美元的风险投资,帮助音乐人创作新颖的旋律和节拍……

以Flow Machines为例,这是一种已经投入使用的歌曲创作算法。如今,Flow Machines已被众多音乐艺术家用作创意助手,甚至出现在Spotify播放列表和顶级音乐排行榜上。初创公司也在迅速跟进,包括Amper、Popgun、Jukedeck和Amadeus Code等。

然而,这些算法是如何工作的呢?通过处理数千首特定类型的歌曲或艺术家的混合播放列表,歌曲创作算法能够优化和输出特定风格的定制旋律和和弦进程。这些反过来又帮助人类艺术家提炼曲调,获得新的节拍,并以以往无法想象的规模提升创作能力。

正如Amadeus Code的创始人福山泰史所解释的那样,“历史告诉我们,音乐领域的新兴技术导致了艺术的爆炸。对于人工智能歌曲创作,我相信这只是合适的创作者围绕着它聚集起来制造下一次文化爆炸的时间问题。”

人工智能:下一个创新革命

在未来的十年里,娱乐业将经历其最伟大的革命。随着人工智能与虚拟现实的融合以及与大众化数字平台的碰撞,我们将很快见证一系列事物的崛起,从教育娱乐到基于互动游戏化的故事讲述,以及沉浸式的场景体验,再到人工智能角色和按需定制的情节线等等。

我们已经看到了娱乐业的数字虚拟化发展,随着技术进步以及行业融合,流媒体席卷全球。人工智能则带来了下一个重大颠覆,这种影响甚至上升到艺术创造力的新高度,内容输出成倍增长,让任何艺术家都能专注提升自己的技艺。人工智能技术进步为内容生产和后期创意实现提供了便利,而AR/VR硬件提升了我们的沉浸式体验,二者相辅相成,共同优化虚拟世界的场景体验。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

AI来编程,码农何去何从?

还记得软件席卷世界的时候吗?一个最近比较流行的观点是,人工智能正在席卷各类软件。过去,谷歌的首席执行官桑达尔·皮查伊(Sundar Pichai)谈到了“自动编写自己”的软件。有些人认为软件开发的工作只是比创造不断重复代码片段复杂一点,那么现在,人工智能的快速发展可能会让软件工程师们集体失业。

传统上,开发人员编写软件有着一系列固定的规则,例如:如果a发生,那么就进行b操作。人类码农指导着机器,这是软件1.0时代。但在软件2.0时代里,人们认识到,基于深度学习研究的进步,我们可以构建一个神经网络,来学习需要哪些指令或规则才能获得预期的结果。特斯拉人工智能总监安德烈·卡帕西(Andrej Karpathy)等人是2.0时代的支持者,他们提出的论点是,未来里,我们将不再需要亲手编写代码。我们只需要找到数据并将其输入机器学习系统,一切就完成了。在这个场景中,软件工程师的角色将转变为“数据监管员”,或是“数据赋能者”。

然而,软件工程不会很快消失。即使软件工程师2.0、数据科学家2.0这样的新职业正得到不断的发展,人工智能技术也会反过来增强软件1.0时代工作者的能力。事实上,我们还不能确定软件工程在不久的将来,是否会变得和今日完全不同。深度学习神经网络系统中将会为我们提供帮助,但它不会完全取代我们。

机器学习将如何塑造软件开发?

这将是一个全新的世界,但我们并不是活在电视剧里。事实上,一般的智能办公室助理已经能安排一天的日程,并启动电话会议。甚至有些AI支持的系统,可以为企业生成商标,并根据反馈自动改进商标。

今天,手机会自动检查拼写并提示下一个单词。在编写代码时,类似的工具也会高亮潜在的错误。例如,从事结对编程(Pair programming)的人自然会预想到软件2.0对他们工作方式的影响。考虑到机器学习和会话接口方面的进步,可以想象,未来的一台机器就能撑起结对编程任务的半边天。

多年来,我们一直使用自动化工具来节省编写模板代码的时间。现在,AI驱动的助手工具也越来越频繁地出现在更加复杂的软件开发中。它们以增强式集成开发环境的形式出现,为人们推荐更好的代码组合。

人工智能的角色

让我们想象一个更高级的人工智能助手在未来发挥的巨大作用。在进行编码工作时,你的AI同时会通过分析确定你正在编写的是哪种代码,并且根据你的风格来自动完成其余的代码撰写。本质上,人工智能助手更像是获得你的授意,为你完成剩下的工作。

另一个人工智能助手将大有作为的领域是测试驱动开发。与人类工作速度形成鲜明对比的是,一个机器同事可以快速进行数百万次的迭代,来找到解决测试的正确代码段。拥有一个AI同事意味着,测试验证这项任务将交由AI完成。我们不用同时应对编写测试和测试验证这两项工作,从而节约了在编码上花费的时间,让我们有更多的时间用于理解和解决业务问题。

将来,软件2.0甚至可能会帮助指导测试驱动开发,为测试提出建议,并给出它自己的原因。让我们想象一下,营销人员来到开发团队,说他们想要这样或那样的功能。如果他们能以机器能够理解的方式表达他们想要的东西,机器就能自动选择必要的测试,并提出下一步的建议。

强化,而不是代替

这引发了一个终极问题:机器会完全取代软件工程师吗?现实情况是,我们最多只能达到百分之九十几的能力,而这仍然意味着1%的失败和不可预测性。一个监控系统需要用来确保所写的代码能够正常工作。也许软件工程师的新角色就是监控代码并帮助机器学习系统达到接近100%的准确率。

既然我们已经概述了可以想象的好处,下一个问题就出现了:软件编程的哪些部分可以转移到深度学习2.0框架中,哪些部分应该保留在传统的1.0框架中?时至今天,我们得到的结论是,这些深度学习神经网络在监督学习环境下表现得很好。如果向它们提供训练数据,提供好的和坏的实例,那么它们就能学会正确地输出。

但这些系统的好坏取决于训练数据的质量。正如我的一位同事所指出的,改进模型的性能常常包括改进底层代码、部署环境,以及改进训练数据。事实上,一些机器学习系统因为过于优秀,以至于它们实际上被训练数据中的人为缺陷所耽误。

最终的一点想法

我们需要设计神经网络来处理其他解决方案。软件开发的某些部分能够很好地进行深度学习,而另一些部分则不能。如果我们再看看结对编程,通过与他人共享控制权,会有许多不同的方法来完成问题。软件开发是一个不断与其他同事协作的过程。每一对新的工作伙伴都会带来不同的经历和解决问题的不同方法。组合越多,得到的解就越多。

在软件2.0中,我们得到了一个新的AI伙伴来帮助开发人员更好地完成他们的工作。我们展望一个更有活力的人机合作环境,它将带来更多、更有效的解决方案。这对每个人都有好处。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

时势造AI 谈谈人类为啥没被大数据海洋淹没!

数据本应是人类的帮手,但如今人类却被数据淹没,不知所措。廉价的数据储存器以及自动数据收集引发了大数据革命,与过去相比,组织机构的数据一直在膨胀增长。从计算机日志文件到天气状况,从购买数据到电视播放量,庞大的数据一直在展示世界的方方面面。

但同时,仍有大量难辨真假的数据等待处理,有时它们并不投入使用,有时也会用作检测目前的趋势。而处理如此多的数据绝非易事。

比方说在医疗方面,新诊断技术的出现便意味着需要对患者收集比以往更多的信息。

医生不能也不会忽视病人的新信息。当诊断技术证实可投入正式使用后,便可用于挽救千千万万的生命。曾经CT和MRI这些诊疗工具并不常见,只在最复杂的案例中出现,但现在它们已不再罕见。随着这两种工具诊断越发准确,每次使用拍摄的图像数量也会增加。最近有研究表明,1999年平均每位患者拍摄82张CT图像,而2010年,图像数量增加了730%,达679张。

对于希望获得精准诊断的患者而言,这的确是个好消息,但同时也为放射科医生带来巨大压力。在医疗设备数字化的背景下,放射科的医生们筛选的数据也大大增加。研究还表明医生们为了保持工作量,需在在3至4秒内检查完一张图。

聘请更多的放射科医生是解决繁多工作量的一个方法,但培养专业人员耗时并不短。而且,假设当今图像的数目是30年前的50倍,难道放射科医生人数也相应提升至50倍吗?这个解决方法显然不可取。

因此,时势造AI。

AI能为这些医生们做什么呢?传统的AI计算机辅助诊断方法检测到问题后,需要医生手动发送诊断图像,十分麻烦。而在新的方案中,AI“持续在线”,并且能自动检测筛选图像。

AI不仅仅输出诊断信息。有些AI方案还可以对病例排序,确认哪个患者(如栓塞症患者)情况更严重,需要先看医生。比方说,癌症患者可以在几周内接受手术,但颅内出血的病人情况更为危急,濒死的几个小时是不可错过的救治时间。

AI并不是利用算法来取代放射科医生的工作,也不会取代任何获益于大数据的岗位。相反的是,AI是放射科医生们的主力工具,帮助他们持续关注病人状态。该科室的医生如果一天工作10至12个小时,那么一人可能就需要检查1万多张图像,而AI却可以帮助提升其准确率,减少工作负担。埃森哲(Accenture)公司在研究中发现,AI技术正重塑医疗服务,改善人类活动。

但如今仍未确定AI在医疗领域的价值,也不知晓AI是否已充分发挥其作用。AI不是完美的代名词,依然存在着一定的缺陷。但它也从“遥不可触”变成了一种实打实的技术。美国的食物与药品管理局在医药市场批准了部分AI支持方案,它们同时也获得了欧盟的许可。

数据仍在增长,CT和MRI仪器将变得更加准确快捷,每个病患的图像会更加全面。AI将帮助众多医生赶上数据的大流,他们也因此有了更多时间关注病人。

AI不会抢了业务数据分析师的饭碗,而是帮助他们处理数据时更加得心应手,比方说处理亚马逊等大公司数亿交易数据可不容易。AI也不会冲击IT行业的就业情况,但如果没有AI,业内人士也难以处理大量的日志数据。

汽车制造业也出现了类似的趋势。1928年,近50万人受雇于美国汽车业;但现在数量已上升近一百万人。机器自动化并未给汽车制造业带来苦果,而是促进了更先进汽车的诞生。

然而讽刺的是,为了使AI更加精准强大,必须使用大量数据训练深度学习模型。也就是说,大数据是AI进步的一大前提;同样,为了充分利用大数据革命,首先需要AI的革命。

AI从大数据中拯救了人类,使我们免于淹没在数据之中,并给出明确的方向。在AI的帮助下,业务运营更妥当,软件应用运行更快,医生也得以使用更多的数据更好完成本职工作。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

英伟达AI战略:开发更好的AI硬件,做全球供应商

前言:英伟达的人工智能之旅始于一场用相关技术识别猫的挑战。而现在,英伟达通过成立人工智能机器人实验室、在人工智能领域进行各种古怪实验,最终希望在每一部手机、每一台电脑、每一个机器人和每一辆自动驾驶汽车中都植入自家的人工智能。

据国外媒体报道,英伟达位于西雅图的1200平米人工智能机器人研究实验室里,一小群研究人员正在努力开发人工智能,驱动公司的未来。厨房工作台旁的一只机械手臂举起一罐食品并把它放进抽屉里。它还学会了如何清洁餐桌,如果你请求恰当,它可以帮助你做饭。而这些都是英伟达雄心勃勃人工智能总体规划的第一步。

英伟达的人工智能机器人实验室于今年年初成立,目前拥有28名员工,共可容纳50名研究科学家、教师顾问和实习生。著名机器人专家、英伟达机器人研究高级主管、华盛顿大学教授迪特尔·福克斯(Dieter Fox)领导的实验室旨在开发能够与人类安全合作的下一代机器人,并有望改变制造、物流和医疗保健等行业。机器人领域也是人工智能面临的众多重大挑战之一。在那些畅想未来的科幻小说中,机器人不仅擅长完成非常具体的任务,而且能够表现得像人类一样。

但实验室的这种机器人所展现的也是一种复杂的屈伸运动。这是一个引人注目的演示,有效展示出英伟达的硬件和软件当前能够完成哪些功能以及未来能做什么。从另一方面说,这也是该公司期望在人工智能技术竞争日趋激烈情况下领先一步的最新决策。

自2005年起,英伟达开始优化用于人工智能的GPU,这是科技硬件历史上最明智的商业决策之一。但现在面对日益激烈的市场竞争,巩固这一领先地位将是英伟达25年来面对的最艰难考验之一。

英伟达的最新实验室配备了机器人有可能在现实世界中遇到的各种设备和现实环境。第一个场景是一个简单的厨房,机器人厨房助手结合人工智能和深度学习技术检测和跟踪物体,了解门和抽屉的相对位置,还能够打开和关闭它们从而取放物体。福克斯说:“过去机器人技术研究的重点是小型独立项目,而不是完全集成化的系统。”“我们现在正组建一个由机器人控制和感知、计算机视觉、人机交互和深度学习等领域专家组成的跨学科合作团队。”

西雅图的研究小组得到了来自英伟达在圣克拉拉、马萨诸塞州西部、多伦多和特拉维夫所设其他研究中心的大约60名研究人员的协助。这种多学科的研究方式有一个极其困难的目标:英伟达试图展示其人工智能硬件和软件可以将机器人从现在这种可以按照严格指令操作的精确定位机器转变为动态和灵活的机器,能够安全地与人类一起工作。

谷歌驻柏林的人工智能研究员萨米姆·瓦格纳(Samim Wagner)认为,英伟达之所以要自行开展研究,主要原因之一是打造更好的人工智能硬件,然后再卖给其他人。他表示:“为了给机器学习开发可行且具有竞争力的硬件,英伟达在战略上被迫进行高质量的机器学习研究。该公司与游戏和娱乐行业的一贯联系,为其机器学习研究提供了一个焦点,这也是成功的关键。”这也从一方面解释了为什么在英伟达的研究实验室里会有这么多奇怪的实验。

英伟达首席科学家兼高级研究副总裁比尔·戴利(Bill Dally)在谈到厨房机器人助手时表示:“现在我们正在进行深入研究,让机器人与环境进行互动成为可能。”“既然我们可以打造感知系统,就可以打造定位灵活的机器人。”

与英伟达的机器人实验一样,深度学习让人工智能系统能够解决以前不可能解决的问题。通过反复试错,其已经在数字助手、计算机视觉、语言翻译、聊天机器人、人脸识别等领域取得了突破性进展。而且,就像人工智能领域的许多突破一样,这些突破在很大程度上依赖于英伟达的GPU。

图:英伟达位于加州圣克拉拉的总部。

英伟达的人工智能研究始于2010年加州帕洛阿尔托的Joanie ‘s Café餐厅。戴利说:“我们是在和人工智能专家吴恩达开完早餐会后进入人工智能领域的。”在那次早餐会上,吴恩达解释了谷歌是如何在16000个CPU帮助下,训练人工智能系统去识别猫的照片。当时吴恩达正在谷歌合作打造人工智能项目Google Brain。由于意识到几乎没有人有16000个CPU可供使用之后,戴利提出了一个挑战。“我打赌我们可以用更少的GPU做到这一点,”他对吴恩达说。

会面后不久,戴利请英伟达的研究人员布莱恩·卡坦扎罗(Bryan Catanzaro)与吴恩达合作研究。戴利说:“我们用48个GPU实现的功能和他们用16000个CPU达到的效果差不多。”“当时我非常清楚,这将改变一切。”

英伟达的人工智能业务在一场关于识别猫的赌注中出现爆炸式增长。该公司没有透露其在人工智能领域投入了多少,但相关文件显示英伟达上一财年在研发上一共开支了18亿美元,而其中的关键领域是游戏、人工智能和汽车。其开发的GPU在人工智能项目上的有效性在竞争对手中引发了一场混战,英特尔、谷歌甚至Facebook都投入了巨额资金试图迎头赶上。

2018年7月,谷歌宣布正在开发用于设备机器学习的人工智能芯片。谷歌押注一种新型芯片,这是专为神经网络机器学习设计的张量处理单元。在软件领域,另一场同样重要的竞争也正在展开。英伟达的代码库还面临着与谷歌Tensorflow或Facebook的PyTorch等竞争对手框架的竞争。尽管困难重重,英伟达仍保持着自己的领先地位。

正如识别猫的挑战所展现的,GPU在处理人工智能任务方面非常出色。主要是因为在运行与人工智能相关的并行计算问题时,GPU比CPU更好,因为人工智能中的许多计算是同时进行的。并行计算在神经网络中尤其流行,其工作方式与动物大脑类似,可以像动物大脑一样同时或并行执行许多任务。最终,英伟达希望自己能够成为在每一部手机、每一台电脑、每一个机器人和每一辆自动驾驶汽车中都植入人工大脑的公司。

2005年,在首席执行官黄仁勋的领导下,该公司抢占了人工智能热潮的先机。当时该公司开发了一款软件,使其GPU能够处理现代人工智能最终需要的数百万个微计算。英伟达的GPU现在分布在世界各地的数据中心,为数以千计的企业提供人工智能服务。2014年至2018年间,该公司数据中心优化芯片的营收增长了524%,有效提振了该公司的业绩。

“我们是全世界的供应商,”戴利说。“每个人都通过英伟达的GPU训练他们的深度神经网络。”他补充说该公司的T4芯片被广泛用于推理任务。Facebook和谷歌使用英伟达平台为其平台上的人工智能功能提供支持。几乎所有的自动驾驶汽车公司都在使用英伟达的技术。英伟达还与腾讯、阿里巴巴和百度签署了合作协议。

与厨房中的机器人一样,英伟达的其他人工智能实验也显得兼收并蓄。它开发了一个创造性的生成对抗网络,非常擅长创造超逼真的人脸图像。在2018年12月发表的一篇论文中,该公司展示了最新生成的人脸图像与四年前相比有多么逼真。

逼真面容并不是英伟达的生成对抗网络能够创造的唯一东西。英伟达还开发了一个转换网络,可以将冬天拍摄的照片转换成美丽的夏日景色。你有婚礼当天遇到下雨的照片吗?英伟达的人工智能可以让它变成晴天。去年年底,英伟达还展示了全球首款使用人工智能生成图形的视频游戏演示。这个演示是一个驾驶模拟器,它是通过将人工智能生成的视觉效果与标准视频游戏引擎相结合而构建的。

但前进道路上也有坎坷。英伟达暗示未来的道路会更加艰难。今年年初,Nvidia被迫将其第四季度营收预期调减了5亿美元,此举导致其股价暴跌近18%。2018年数字货币市场的一路下行也不断挑战着英伟达能够承受打击的底线。

就目前而言,英伟达GPU的适应性使其相对于竞争对手具有更多优势:它们是数据中心、自动驾驶汽车、研究实验室、数字货币挖掘平台不可或缺的组成部分。只要你能想到的设备都会有一个GPU。但这种情况可能很快就会改变,这正会是英伟达的人工智能机器人实验室发挥作用的地方。

“现在有很多新的人工智能硬件初创公司,”人工智能研究顾问斯蒂芬·梅里蒂(Stephen Merity)说。“他们对于英伟达来说很可能是一个威胁,但这是一个巨大的开放性问题,我无法想象这些初创公司能在早期实现大规模发展。”

其中之一就是英国的创业公司Graphcore,其在宝马、红杉资本以及谷歌DeepMind创始人的资助下,现在公司估值超过10亿美元。Graphcore称,其智能处理单元尚未投入大规模生产,处理速度比现有系统快100倍。对于英伟达来说,这可能会带来比数字货币市场崩溃更令人头疼的财务问题。

“我不知道人工智能硬件生态系统的最终状态是什么样子,”梅里蒂表示,“如果终极状态是双方拥有相同的硬件,那么英伟达就有优势。如果它分成‘用于训练人工智能的硬件’和‘在现实世界中使用的硬件’,那么Graphcore和其他类似初创公司可能会做得很好。”

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

AI教父杰弗里辛顿:AI反学习可能揭开人类梦境的奥秘

近日,多伦多大学的教员、谷歌大脑(Google Brain)研究员杰弗里·辛顿(Geoffrey Hinton)发表了炉边谈话。他讨论了神经网络的起源,以及人工智能有朝一日可能像人类一样推理的可行性和意义。

辛顿被一些人称为“人工智能教父”,他在过去30年里一直致力于解决人工智能面临的一些最大挑战。除了在机器学习方面的开创性工作以外,他还撰写以及与他人合作撰写了200多篇经过同行评议的论文,其中包括1986年发表的一篇关于机器学习技术(被称为反向传播学习算法)的论文。

他普及了深度神经网络的概念,即包含上述功能的人工智能模型,它们被安排在相互连接的层中,传输“信号”并调整连接的突触强度(权重)。通过这种方式,人工智能模型从输入数据中提取特征,并学习做出预测。

辛顿坦言,创新的速度甚至让他自己都感到惊讶。“在2012年,我没想到5年以后,我们就能够使用相同的技术来在多种语言之间进行翻译。”

尽管如此,辛顿认为目前的人工智能和机器学习方法都有其局限性。他指出,大多数的计算机视觉模型都没有反馈机制,也就是说,它们不会试图从更高层级的表征重建数据。相反,它们试图通过改变权重来有区别地学习特征。“它们并没有在每一层的特征探测器上检查是否能够重建下面的数据。”辛顿说道。

他和同事们最近转向人类视觉皮层来寻找灵感。

辛顿说,人类的视觉采用了一种重建的方法来学习,事实证明,计算机视觉系统中的重建技术增强了它们对对抗攻击的抵抗力。

“大脑科学家都同意这样的观点,如果你的大脑皮层有两个区域处于感知通路中,并且相互连接,那么总有一个反向通路。”辛顿表示。

需要说明的是,辛顿认为,神经科学家需要向人工智能研究人员学习很多东西。事实上,他觉得未来的人工智能系统将主要是非监督式的。他说,非监督式学习——机器学习的一个分支,从未标记、无法归类和未分类的测试数据中收集知识——在学习共性和对潜在的共性做出反应的能力方面,几乎就像人类一般。

“如果你用一个有数十亿个参量的系统,在某个目标函数中实施梯度下降,它的效果会比你想象的好得多……规模越大,效果越好。”他说,“相比于让大脑计算某个目标函数的梯度,并根据梯度更新突触的强度,这要更加合理。我们只需要弄清楚它是如何得到梯度的以及目标函数是什么。”

这甚至可能会解开梦的奥秘。“为什么我们根本不记得我们的梦呢?”辛顿反问道。他认为这可能与“反学习”有关。

辛顿说,“做梦的意义可能在于,你把整个学习过程颠倒过来。”

在他看来,这些知识可能会完全改变一些领域,比如教育。例如,他预计,未来的课程将更加个性化,有更强的针对性,将把人类生物化学过程考虑进来。

“你可能会认为,如果我们真正了解大脑的运转机制,我们应该能够改善教育等方面的状况,我认为我们会做到的。”辛顿称,“如果你能最终了解大脑发生了什么,它是如何学习的,而不是没有去进行调整适应,取得更好的学习效果,那会令人费解。”

他警告说,实现这一点尚需时日。就近期而言,辛顿设想了智能助手的未来——比如谷歌的Google Assistant或亚马逊的Alexa——它们可以与用户互动,并在日常生活中给他们提供各种指导。

“未来几年,我不确定我们能否从智能助手那里学到很多东西。但如果你仔细观察,你会发现现在的智能助手相当聪明,一旦它们真的能听懂对话,它们就能和孩子们交谈,并对他们进行教育。”辛顿总结道。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

谷歌推看图配诗AI,输入蔡徐坤后出现了”天雷地火”

在人工智能(AI)开发的路径选择上,谷歌显然走的是一条既专业又欢乐的路线。有虐哭柯洁的AlphaGo,有随叫随到的智能助理,还有能将你的自拍进行艺术创作的PoemPortraits。

近日,谷歌艺术和文化实验室推出了一个名为“诗歌肖像”(PoemPortraits)的应用,它可以根据用户提供的词条,进行诗歌创作,并将其与自拍结合,最终创建同名的诗歌肖像。简单来说它有点像滤镜与诗歌的结合。

蔡徐坤原图

我们用蔡徐坤的照片和英文单词“basketball”进行了创作,一起来看下人工智能生成的效果。

人工智能配的诗歌内容大意为:

这个篮球,

在天雷地火之前就有,

太阳的缘分

是云。

PoemPortraits生成的效果图,诗歌中文翻译:澎湃新闻记者 虞涵棋

诗歌加上照片,整体效果看上去是不是有点诡异,却又有无法言明的艺术气息?

人工智能让诗歌和自拍结合

据澎湃新闻(www.thepaper.cn)了解,目前这款应用推出了网络在线版本,是谷歌和艺术家、著名舞台设计师Es Devlin之间长期合作的成果。Es Devlin曾与英国国家剧院,Kanye West(坎爷),Beyoncé(碧昂丝)和Adele(阿黛尔)等名人合作。

PoemPortraits网络在线版屏幕截图

谷歌方面开发了诗歌生成软件,他们搭建了深度学习神经网络,使用的训练数据集是19世纪的诗集,数据量超过2500万字。搭建好的模型可以根据用户输入的词条生成诗歌文本。目前,除了线上版本外,谷歌还提供了两个线下体验点,有点类似地铁站里的照相亭,分别位于英国伦敦著名地标特拉法加广场和英国蛇形画廊。

将人工智能与艺术创作结合,一直以来都被认为是人工智能技术开发的难点。原因在于相对于下围棋、打游戏等可以直接计算且数据量丰富的项目,艺术创作很难找到标准的计算路径。不过,即便如此,研究人员利用人工智能进行艺术创作的尝试一直没有停止。

AI能作诗,写歌还会画画

微软的跨平台人工智能机器人“小冰”就曾尝试过写诗,甚至还出了本原创诗集《阳光失了玻璃窗》。小冰先后学习了自1920年以来519位中国现代诗人的作品,通过对这些诗歌上万次的学习,然后获得了现代诗的创造力,并且逐渐形成了自己的创作风格、偏好和技巧。

微软小冰

不过,作为刚出道的诗人,小冰还有不足,它的诗集中会出现一些人类不会犯的错误。比如,在《它常把我的海水洗甜》这首诗中,小冰会出现“有燃(悠然)从风雪的街心随着流漫”这样的诗歌。

微软小冰创作的诗歌

除了写诗外,人工智能还尝试过写歌。比如,谷歌发起的艺术项目Magenta,该项目首次亮相于杜伦“Moogfest科技音乐节”上。Magenta项目专注于机器理解、生成音乐能力的训练,以及创造能够进一步完善和补充人类创造力的工具。

面对用户粗糙的画作,AI给出的三个预测。theverge图

除了写诗、创作歌曲,谷歌还曾开发过一款能一眼看穿你画的是什么的人工智能应用Sketch-RNN。这个AI可以把你画的东西变成理想的画作,它依赖于谷歌的图像识别技术,通过一个简单的手绘图像数据库来和你的画作匹配。另外,在这个AI程序中,用户还可以尝试和它一起完成一幅画作。

当然这些尝试都还有不完美的地方,正如小冰在创作中会出现错误一样,Magenta生成的旋律单一,甚至可以说有点刺耳,Sketch-RNN有时会错误识别用户想要画的内容。Devlin也认为尽管“诗歌肖像”项目创作的诗歌有时让人很惊讶,但有时却又非常荒谬。

 

 

来源:澎湃新闻(上海)

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

耶鲁大学测试人类和AI一起工作 结果令人意外!

《大西洋月刊》撰文指出,人工智能正在直接或间接地影响诸如爱情、友谊、合作以及教学等人类基本社会能力。

当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约,一种与机器而不是与他人相处的契约。

几十年来关于机器人如何改变我们生活,一直是科幻小说的惯常话题。20世纪40年代,当人类和人工智能之间的广泛互动还遥不可及之时,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)为了防止机器人伤害人类,就提出了著名的机器人三定律。由于清楚机器人可以通过直接互动影响人类,机器人三定律的第一点就是机器人不能伤害人类,也不能在人类受到伤害时袖手旁观。想想经典科幻小说中的那些描述:比如在《星球大战》中,C-3PO和R2-D2与叛军联盟合作挫败帝国;或者《2001太空漫游》中的HAL 9000和《机械姬》中的艾娃密谋杀害表面上的主人。

但是这些想象并没有集中在人工智能更广泛也更重要的潜在社会影响上:人工智能可以影响我们人类之间的互动方式。

当然,激进的创新此前已经一再改变了人类共同生活的方式。大约在5000到10000年前,城市的出现意味着游牧生活的减少和人口密度的增加。无论是人类个体还是集体,都对这种新的生活方式进行了适应。比如说我们可能已经进化出对可能由这些密集新环境造成感染的抵抗力。最近,包括印刷、电话和互联网在内的技术发明彻底改变了我们存储和交流信息的方式。

然而,尽管这些创新具有重大影响,但它们并没有改变人类社交属性的基本行为:这是我们经过数十万年进化而来的基本社会能力,其中包括爱情、友谊、合作和教学。在世界各地,这些人类行为的基本因素在世界各地保持着惊人的一致性,无论是在城市或者农村,无论人类社会中是否使用现代技术均是如此。

但在人类社会中间加上人工智能可能更具破坏性。特别是当机器被设计成和我们一样,并深深地渗入我们的生活时,它们可能会改变我们的爱情方式、交友方式或者人性。这一切不仅仅发生在我们与机器的直接互动中,而且发生在我们与他人的互动中。

耶鲁大学实验室里做的一些实验就是如此。在其中一个实验中,研究人员引导一小群人与人形机器人一起在虚拟世界中铺设铁轨。每个实验组由三个人和一个蓝白相间的小机器人组成,他们围坐在一张方桌旁,通过平板电脑完成任务。这个机器人被设定为偶尔会犯错误,并且会承认错误:“对不起,伙计们,这一轮我犯了错误。”“我知道这可能难以置信,但机器人也会犯错。”

结果证明,这个会作忏悔的笨拙机器人通过改善人类之间的沟通交流,帮助这些小组表现得更好。他们变得更放松,更健谈,安慰那些容易犯错的小组成员。与机器人只做平淡陈述的对照相比,有忏悔机器人的实验组成员之间合作得更好。

在另一项虚拟实验中,研究人员将4000名受试者分成20人左右的小组,并在小组内为每个人分配“朋友”;彼此之间的朋友关系形成了一个社交网络。然后,这些小组被分配了一项任务:每个人必须从三种颜色中选择一种,但是每个人所选择的颜色不能与被分配朋友所选色相同。在受试者不知情的情况下,研究人员为一些小组分配了一些被设定为偶尔会出错的机器人。实验显示,与这些机器人直接相关的人变得更加灵活,并且会避免陷入一个只适用于特定个人,但不适用于整个团队的解决方案。更重要的是,由此产生的灵活性会在整个小组中传播开来,甚至会影响到没有直接与机器进行交互的人。因此,分配有容易出错的智能程序的实验组始终优于那些没有出错智能程序的实验组,在表明,机器人有助于人类相互帮助。

这两项研究都表明,在所谓的“混合系统”中,也就是人与机器进行社交互动的系统中,合适的人工智能可以改善人与人之间的关系。其他研究结果也证实了这一点。例如人们在网上对他人发出谩骂,后政治学家凯文·芒格(Kevin Munger)指示特定种类的机器人进行干预。他指出,在某些情况下,机器人只是提醒谩骂者他们的目标是一个感情可能会受到伤害的人时,就能使谩骂者在一个多月的时间内不再攻击他人。

但是在我们的社会环境中加入人工智能也会使我们的行为不再那么有效率和道德。在另一个实验中,研究人员给了几千名受试者钱,让他们在多个回合的网络游戏中使用。在每一轮测试中,受试者被告知他们可以保留自己的钱,也可以将部分或全部钱捐给邻居。如果他们捐了钱,研究人员也会捐同样的钱给他们的邻居。在游戏初期,三分之二的人表现得无私。毕竟,他们意识到在第一轮对邻居慷慨可能会促使邻居在下一轮对他们慷慨,从而建立一种互惠准则。然而,从自私和短期的角度来看,最好的结果是保留自己的钱,并从邻居那里得到钱。在这个实验中,研人员发现在整个受试群体中加入一些假装人类玩家的自私机器人,就可以促使整个群体做出同样的自私行为。最终,参与实验的人彼此完全停止了合作。这些机器人就这样把一群慷慨的人变成了自私之徒。

合作是我们人类的一个重要特征,是社会生活必不可少的。信任和慷慨是区分成功和失败群体的关键。如果每个人都为了帮助群体而努力,那么都应该从中受益。然而,当这种行为失效时,公共利益的概念就消失了,每个人都会受到损害。人工智能可能会有效降低我们合作的能力,这一事实非常令人担忧。

我们已经遇到过现实世界中人工智能如何破坏真实世界人际关系的许多例子,而人工智能对社会产生简单影响这一事实每天都在我们身边上演。父母们看着自己的孩子对着Alexa或Siri等数字助理发出粗鲁的命令,开始担心这种粗鲁会渗入孩子对待他人的方式,或者担心孩子与人工智能机器的关系会干扰甚至抢占人际关系。麻省理工学院技术与社会专家雪莉·特克尔(Sherry Turkle)不久前指出,那些在人工智能环境中长大的孩子,可能不会有“同理心”。

随着数字助理变得无处不在,我们更习惯于和它们进行交谈,仿佛它们是有知觉的;朱迪思?舒列维兹(Judith Shulevitz)去年在相关文章中描述了我们中的一些人是如何开始把它们当作知己,甚至是朋友和治疗师。舒列维兹说,她自己向谷歌数字助理坦白了一些不会告诉丈夫的事情。如果我们能更自如地与电子设备亲密交谈,我们的婚姻和友情会发生什么样的变化呢?由于商业上的需要,设计师和程序员通常会设计出让我们感觉更好的设备,但这可能无助于我们进行自我反思。随着人工智能不断渗透进我们的生活,我们必须面对这样一种可能性:人工智能会抑制我们的情感,抑制我们与他人的深层联系,让我们彼此之间的关系变得不那么互惠,或者说更肤浅更自恋。

所有这些都可能以一种意想不到的方式改变人类社会。我们是否希望机器影响孩子们善良的天性?我们是否希望机器会影响成年人的性生活?

英国德蒙特福特大学(De Montfort University)人类学家凯瑟琳·理查森(Kathleen Richardson)就对后一个问题很担心。作为反对性爱机器人运动的主要人物,她警告说,性爱机器人会使人类失去人性,并可能导致用户远离真正的亲密关系。我们甚至可能会从把机器人当作满足性欲的工具,发展到以这种方式对待他人。其他观察家则认为机器人可以从根本上改善人类之间的性行为。

早在我们大多数人遇到如此亲密的人工智能难题之前,我们还会应对更多日常挑战。毕竟自动驾驶汽车的时代已经来临,这些车辆承诺将大大减少困扰人类驾驶员的疲劳和分心等问题,从而防止事故的发生。但是它们还会对人产生什么影响呢?驾驶是一种非常现代的社会互动方式,需要高度合作和社会协调。有人担心,自动驾驶汽车剥夺了人们行使这些能力的机会,可能会导致这种社交能力的萎缩。

这些车辆不仅将通过编程来接管驾驶职责,从而取代人类做出判断的权力,同时还将影响与它们没有直接接触的人类。例如,自动驾驶汽车以稳定不变的速度行驶一段时间后,驾驶员的专注度可能就会下降,反而增加了其接管驾驶时发生事故的可能性。或者,经验可能会证实,与完全符合交通法规的自动驾驶汽车并排行驶,实际上会提高人类驾驶员的表现。

不管怎样,如果我们不对这些社会溢出效应进行优先考虑,就不能不顾后果地推出新的人工智能形式。人类必须像为自动驾驶汽车技术开发硬件和软件那样,运用同样的努力和聪明才智来管理人工智能对汽车外部产生的潜在涟漪效应。毕竟要求车后安装刹车灯,不仅是为了车内人员的利益,而且主要是为了车后的其他人。

1985年,在艾萨克·阿西莫夫(Isaac Asimov)提出他的机器人定律大约40年后,他又在自己的清单上增加了一条:机器人永远不应该做任何可能伤害人类的事情。但他在如何评估这种危害方面遇到了困难。“人是一个具体的物体,”他后来写道。“对一个人的伤害是可以估计和判断的。但人性是一种抽象。”

特别关注社会溢出效应会有所帮助。其他领域的溢出效应导致了规则、法律和监督的要求。无论是污染水源的公司还是在办公楼里呼出二手烟的个人,一旦一些人的行为开始影响其他人,社会可能会介入。由于人工智能对人与人之间互动的影响是如此强烈而深远,而且发展迅速而广泛,在大规模部署之前必须系统地研究可能会出现什么样的效应,并讨论如何为了共同的人类利益来进行调节。

已经有一群不同的研究人员和实践者,比如说计算机科学家、工程师、动物学家和社会科学家等等聚集在一起开发“机器行为”领域,希望将人类对人工智能的理解建立在更坚实的理论和技术基础之上。在这个领域里,机器人不仅仅是人类制造的物品,而是一种新型的社会行为体。

一切迫在眉睫。在不远的将来,人工智能赋能的机器可能会通过编程或自主学习展现出与人类相比似乎奇怪的智能和行为形式。我们需要迅速将仅仅怪异的行为与真正威胁我们的行为区分开来。

人工智能最值得我们关注的是那些会真正影响人类社会生活核心的方面,因为这些核心特征使我们的物种在几千年的时间里得以生存延续。

启蒙哲学家托马斯?霍布斯(Thomas Hobbes)认为,人类需要一种集体协议,以防止我们变得杂乱无章。他错了。早在人类组建政府之前,进化就为人类装备了一套社会能力,使我们能够和平共处。在前人工智能时代,祖先遗传给我们的爱情、友谊、合作和教学能力继续帮助我们共同生活。

不幸的是,人类没有时间进化出与机器人相媲美的先天能力。因此,我们必须采取措施,确保他们能够与我们生活在一起,不受破坏。

当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约,一种与机器而不是与他人相处的契约。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

邀请逝者参加Party? Facebook道歉并利用AI改进推送机制

Facebook首席运营官谢丽尔·桑德伯格(Sheryl Sandberg)表示,该公司正在改进人们“在悲痛中寻求安慰”的方式。

Facebook上有些通知是不那么令人欢迎的:1. 把堂兄去世的儿子加为朋友的建议。2. 一段纪念多年前去世的兄弟姐妹之间友谊的视频。3. 建议为去世的兄弟庆祝生日。

虽然Facebook已经成为保存逝去朋友和家人珍贵记忆的一个出色工具,但它也提供了这些以及其他令人不安、往往出人意料的消息通知。

周二,Facebook宣布了几项旨在减轻用户悲痛的更新。Facebook首席运营官谢丽尔·桑德伯格(Sheryl Sandberg)在公司网站上发布的一份声明中表示,Facebook正在使用人工智能“将可能带来痛苦的体验进行最小化”。

桑德伯格表示,“使用人工智能来避免给用户造成困扰,比如邀请某位逝去的用户参加活动,或者给逝去的朋友发送生日提醒。我们正努力更好更快地完成这一项目。”

这一声明发布之际,Facebook正因其平台上白人民族主义的蔓延而面临审查,同时还因为该公司没有适当地保护用户数据,甚至允许外国干预选举。

Facebook更改了针对已去世的人的通知这一举措看起来是一个很普遍的行为,但是对于一个多年来一直与“身后数据”作斗争的公司来说,这并不是一次简单的改变。

许多用户报告表示,逝去的朋友或家人的资料会被黑客攻击,或被用来分享垃圾邮件。据《华盛顿邮报》当时报道,2014年,Facebook在一篇“回顾一年”的帖子中刊登了一名男子死去女儿的脸。Facebook随后向该男子表示抱歉。

“生命是短暂的,在Facebook里却不是。”加州非营利组织媒体心理学研究中心(Media Psychology Research Center)主任帕梅拉·拉特利奇(Pamela Rutledge)说道。

在某人去世后,如果他的朋友或家人没有要求永久删除他的账户,他们可以要求注销他的个人资料或“纪念”他。一个纪念账户将个人资料变成一个特殊的账户,人们可以在这个账户上发表悼词,或者查看逝者生前的帖子。

Facebook公司表示,现在已经有数十万个纪念账户。但是大多数账户并不会被人们纪念。

2018年Facebook谓语加州门罗帕克的办公园,该公司一直努力解决所谓的“身后数据”问题。

桑德伯格在她发表的文章中写道,“我们听人们说,一篇纪念逝者的个人简介可能会让人觉得是一项重要的行为,但不是每个人都马上准备好这么做。”

这意味着许多死者的个人资料没有被标记到Facebook上。这些账户会在其他人的页面上进行生日提醒或邀请他们参加活动。

多年来,Facebook一直试图自动识别逝者的个人资料,这样他们就不会向用户发送可能令人痛苦的通知。

桑德伯格没有具体说明周二宣布的新人工智能技术将如何帮助公司进行改进,Facebook没有提供更多的细节,只是在一份电子邮件声明中说,“我们研究了各种可能表明死者的信号。”

拉特利奇说,这是Facebook不断进步的最新进展。该公司在2007年推出了纪念档案。2015年,公司又增加了“遗产联系人”的概念——预先安排一位朋友或家人来运营这个纪念账户。

“我们不希望看到用户说糟糕的Facebook根本不考虑他们的感受”,她说。“Facebook和其他人一样,在跌跌撞撞中探索世界。”

在周二的声明中,桑德伯格还宣布了一个全新的向逝者个人资料进行“致敬”的部分,为朋友和家人提供了一个可以发布信息的新地方。桑德伯格说,公司还通过在新的悼念页面上发布内容,让联系人对这些个人资料有了更多的控制权。

拉特利奇几个月前说,Facebook提醒她要祝父亲生日快乐。她父亲两年前去世,享年91岁。她说,她的家人没有并纪念她父亲的账户。

拉特利奇说,“如果Facebook不是你与世界联系的主要途径之一的话,那么你就很有可能不会去纪念逝者的Facebook账户。”

南伊利诺伊大学爱德华斯维尔分校(Southern Illinois University Edwardsville)教授乔斯林·德格鲁特(Jocelyn DeGroot)研究了人们在Facebook上如何处理逝者账户,她表示,这些提醒并没有困扰到所有人,有些人喜欢想起那些逝去的人。

她说:“这类提醒会让一些人感到不适,但另一部分人也对此无所谓。有些人喜欢回忆逝者,但在某种程度上还是要根据他们自己的意愿。”

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

是“洗稿”还是“创作” AI画作所有权该归谁?

在过去几年里,许多艺术家开始使用所谓的“神经网络软件”来创作艺术品。用户将现有的图像输入软件,然后软件会对这些图像进行分析,学习其中特定的美学因素,并生成艺术家想要的新图像。通过控制这些模型的输入和参数,艺术家可以产生各种各样有趣而又令人回味无穷的图像作品。

这些作品通过画廊展览、媒体报道和两次高调的艺术拍卖,已经获得了广泛的认可。作为学术研究人员、艺术技术的开发者以及业余艺术家,看到艺术家们拥抱新技术来创造新的表达形式总是让人感到兴奋。但是,就像之前开创性的艺术运动一样,神经网络艺术也带来了许多难题:当这些艺术品来自许多不同的个人创意和算法时,我们如何看待作者及其所有权?我们如何确保所有参与创作的艺术家都得到公平对待?

新的运动正在诞生

活跃的神经网络艺术兴起于过去几年,部分原因得益于计算机科学的发展。它始于2015年名为DeepDream的项目,该项目是由一位谷歌工程师偶然启动的。他想找到一种方法来可视化设计用来分析图像的神经网络系统的工作原理。为此,这位工程师在神经网络中输入照片,并要求它增加图像中检测到的物体部件数量。结果,他得到了一系列怪异而令人回味的图片。

(皮埃尔·福特尔(Pierre Fautrel)是利用人工智能创作艺术品的法国企业家团队的联合创始人,他旁边的画作是算法创作的艺术品)

这位工程师在网上分享了他的方法,艺术家们立刻开始尝试。在不到一年的时间里,DeepDream艺术画廊举办了第一次展览。因为这款软件是免费在线共享的,数字艺术家可以用这些模型进行实验,然后分享他们自己的结果,并进行修改。Twitter上有个活跃的神经网络艺术家创意社区,讨论他们的实验结果,以及最新的发展和争议。主流艺术家也接受了这些工具,特雷弗·佩格伦(Trevor Paglen)、瑞菲克·阿纳多(Refik Anadol)以及杰森·萨拉文(Jason Salavon)等艺术家都举办了大型展览,并接受了各种委托。

尽管如此,这种开放的分享对我们看待艺术的方式提出了挑战。佳士得在2018年11月以近50万美元的价格拍卖了《贝拉米家族的埃德蒙德·贝拉米》(Edmond de Belamy, from La Famille de Belamy),这是一副AI绘制画作,由巴黎艺术团体Obvious利用算法、基于14世纪至20世纪的15000幅经典肖像作品完成。这场拍卖本身已经给出了警示。

为何会如此?为了创作这张图片,艺术家团队显然使用了另一位艺术家罗比·巴拉特(Robbie Barrat)在网上免费分享的源代码和数据。艺术团体Obvious完全有权使用巴拉特的代码,并声称自己是该作品的作者。尽管如此,许多人批评佳士得的做法帮助提高了那些只在作品创作中发挥了很小作用的艺术家地位。这通常被解读为佳士得的失败,尤其是在推广作品的误导方式上,而不是反思AI艺术的原作者权益。

(《贝拉米伯爵》(Le Comte de Belamy)是组成“贝拉米家族”系列的10幅肖像画之一)

Ganbreeder于去年11月由乔尔·西蒙(Joel Simon)推出。每张Ganbreeder图像都是使用输入参数创作的,你可以通过修改站点上其他图像的参数来选择这些参数。该站点存储每个图像的谱系,以便你可以看到最终图像的所有贡献者。如果你喜欢你发现或创作的某张图片,可以从名叫丹妮尔·巴斯金(Danielle Baskin)的企业家和艺术家那里订购定制的木版画。

巴斯金用颜料润色了这幅作品,但并没有签名,而是在作品的背面贴上二维码,表明这幅作品具有独特的血统。巴斯金之所以这样做,是因为每张图片都是许多人贡献的结果,这使得很难将任何一位艺术家的名字与每幅新作品联系起来。

该是谁的就是谁的

然而,当亚历山大·雷本(Alexander Reben)展示他用Ganbreeder图像创作的画作时,巴斯金指责他偷窃,因为她和其他人花了数小时在Ganbreeder网站上制作这些图像。在为自己辩护时,雷本指出,在他选择图像时,Ganbreeder的作品都是匿名的,用户登录和归属权是在2月份才添加的。

现有的法律和惯例已经可以应对艺术品以某种合作或联合形式创作的情况。人们普遍认为,艺术家只要创作出一张最终的图片,就可以声称自己是作者,不过如果可能的话,他们应该对图片的来源开诚布公。对雷本盗窃的指控似乎模仿了那些对安迪·沃霍尔(Andy Warhol)和理查德·普林斯(Richard Prince)等传统挪用艺术家的方式,他们以扩大和修改其他用户在Instagram上的帖子而闻名。

AI创作的作品

然而,这些神经网络的工作似乎是另一种类型的工作。神经网络模型的贡献和网站其他用户的贡献都与创作结果密不可分。似乎没有任何贡献者属于“艺术家”。

看待这些新艺术作品的一种可能方式是像看待开源软件那样看待它们。开源是一种软件开发模型,任何人都可以在其中贡献或使用开放软件包。开源促使大量主要软件工具诞生,如Linux和主要的神经网络软件。同样,如果没有开放的软件和数据共享,新的神经网络艺术品也不可能被创造出来。

开源项目为软件如何使用和记录贡献指定了明确的规则:有些软件可以扩展和销售,而其他项目必须始终免费分发。每个程序员的贡献都被记录下来,他们如何获得酬劳也取决于个人项目。像开源软件一样,像Ganbreeder这样的网站可以为艺术作者及其贡献建立清晰的规则。指导方针应规定如何评估作品贡献度、还有谁做出了贡献以及作品何时可以出售或获得版权。

支付报酬也是一个棘手的问题。如果Ganbreeder图像被用于商业工作,比如书籍封面或电影制作,会发生什么?对于更平凡的贡献,巴斯金建议可以在作品的众多贡献者中分摊报酬,这可能会有利可图,因为一场大型广告活动的版税足以支付很多艺术家的餐费。 

想象事物的摄影”

还有价值和意图的问题。这些作品能成为伟大的艺术吗?有些艺术品的价值仅仅在于其内在的美学属性,比如某座山的美丽。但我们也重视作品,因为它展现了艺术家的视野、意图和技巧。开源艺术品位于两者中间的某个位置。这一意象代表了许多人经过深思熟虑的艺术选择结果。但目的何在?当然,早期的贡献者并不知道他们的作品将被如何使用。

(法国艺术团体Obvious曾“训练”其软件使用历史画作为参考,然后生成类似于18世纪肖像画的图像 )

这就像在询问创作美丽山景背后的意图吗?还是艺术家最终的选择是唯一的意图来源?以前的艺术技术也提出过类似的问题,尤其是摄影的发明。当这种媒介首次出现时,许多人声称摄影根本不可能是艺术。他们认为,所有的工作都是由机器完成的。如今,这种观点在“AI自己创作艺术”的误导性言论中得到了呼应。

这种争论延续了很长时间,但摄影最终被认为是其自己的艺术媒介。此外,它还通过迫使艺术家停止把所谓的现实主义作品放在基座上,从而催化了现代艺术运动。因为艺术家的画作永远无法与相机带来的真实感相匹配,所以他们需要找到一种方法来创作出任何机器都无法复制的作品。

神经网络艺术现在是就像“想象事物的摄影”。因为就像摄影一样,神经网络艺术可以创造出一组看似无穷无尽的图像,而这些图像本身似乎没有多大价值。价值来自艺术家使用这些工具的独特方式,比如他们如何设置参数、选择主题、调整图像细节或创作更大的图像。不过,随着新的神经模型以惊人的速度发布,这些问题只会随着更奇妙、更怪异、更鼓舞人心的图像的出现而变得更加紧迫。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)

给手机配上AI技术 拍出的照片真能比肩单反?

目前,出现在新一代智能手机上的3D传感器,只是机器学习所引发的摄影技术浪潮的冰山一角,该类技术将不仅仅纠正智能手机照片的缺点,还将为摄影带来一些令人惊叹的新元素。

摄影在智能手机时代已经发生了改变,不仅拍摄姿势不同(比如自拍),手机摄像头捕捉光线的整个过程也变得完全不一样了。摄像头不再只是一个透镜和传感器,它们还集成了一组算法,这些算法可以立即处理图像,瞬间就能获得桌面软件耗费数小时才能实现的照片效果,摄影已然成为计算领域的一门学问。

人工智能机器学习形式持续不断的进步将会带来更多的功能,让今天的智能手机照片变得过时。

外媒认为,体现当今手机的尖端摄影技术的最新例子包括:Alphabet子公司谷歌的Pixel 3智能手机照片,以及苹果iPhone X的照片。在Pixel 3上,谷歌使用机器学习在低光照条件下捕捉更多的细节,使得夜景看起来像白天。这些根本不是自然界中曾经存在过的镜头,它们完全是超分辨率的图片。

从2017年推出iPhone X开始,苹果公司添加了“bokeh”,巧妙地模糊了焦点之外的元素,这并不是像传统摄影那样通过镜头本身的某些方面来实现的,而是通过在捕捉到图像后对像素进行计算调整来实现的。

“移轴”相机

我们预测,2019年和2020年的突破性发展很有可能是通过操控图像的视角来改善,希望这能纠正智能手机摄影中固有的失真问题,这些失真使得智能手机在数码单反(DSLR)相机照片面前相形见绌。

卷积神经网络(CNN)试图从一张图片中重构现实的过程

事实上,它们可以达到类似于“移轴”相机的效果。在移轴相机中,镜头所成的角度可弥补一个人站在相机前的角度,从而纠正由于个人与场景之间的角度造成的图像失真。单反相机用户可以在由不同的供应商提供的各种可拆卸镜头中实现移轴功能。

一般的手机摄像头都有一个非常小的透镜镜筒,因此它所捕捉到的一切东西都是扭曲的。在现实世界中,没有什么形状是恰到好处的。大多数人可能不会注意到,又或者可能不会在意,因为他们已经习惯了Instagram上的自拍。但如果能改善这些畸变就更好了。这一点能做到的话,那么它将会是来自谷歌、苹果等公司的下一轮智能手机主推的一个卖点。

iPhone和其它品牌的手机将越来越多地搭载带有3D传感器的后置摄像头。这些传感器由Lumentum Holdings和其他的芯片供应商等公司制造,通过发出光束并计算它们在物体反弹后如何返回手机,来测量手机周围环境的深度。“飞行时间”等技术可以让手机详细测量周围环境的三维结构。

那些传感器可以利用的是,近年来为了解二维图像和现实世界之间的关系而进行的大量统计工作。

谷歌Pixel 3智能手机上的“夜景”功能

人们做了大量的统计工作来实现移轴镜头那样的物理特性,不管是有特殊摄像装置的,还是没有特殊摄像装置的。例如,一项名为“随机抽样一致性”(RANSAC)的技术可以追溯到1981年,专门用于寻找三维世界中的地标,这些地标可以映射到二维图像平面上的点,以便了解二维图像与三维现实世界之间的关系。使用这种技术,可以更好地理解二维呈现是如何与现实世界相对应的。

2015年,佛罗伦萨大学的一组研究人员在RANSAC技术的基础上,通过对相机拍摄的照片进行逆向推理,推导出了一种泛倾斜变焦相机的结构,他们能够通过软件来分析相机位置的不同在多大程度上引发了失真,从而有效地将控制相机的执行机构调至最佳状态,他们可以将这种技术用于视频,而不仅仅是用于静止的图像。

2017年,德国埃尔兰根-纽伦堡大学和伍兹霍尔海洋学研究所的研究人员展示了一个名为CameraTransform的Python库,该库可让人们通过对拍摄的图像进行逆向计算,来估算物体在现实世界中的真实尺寸。

四角观察:研究人员创建的一种神经网络,由编码器和解码器结合生成的对抗性网络组成,被用于推断图片中被遮挡的物体。

去年,德国慕尼黑工业大学和佳能公司的研究人员表示,只需拍一张图片就可以推断出被另一个物体遮挡的场景中有什么。这种技术被称为“分层深度图像”,可以通过从照片中移除一个物体来创建新的场景,呈现相机从未见过的背景,但这是通过图像计算实现的。该方法使用了许多神经网络应用中常见的编码-解码器方法来估计场景的深度,也使用了“生成对抗网络”(GAN)来构造场景中在拍摄照片时从未实际出现在视野里的部分。

所有的这些研究正在不断涌现,并将在下一代配备3D传感器的智能手机摄像头上达到高潮,带来一些不可思议的功能特性。这种研究应该会带来令人惊叹的成果。至少,人们可以想象,用智能手机拍摄出的人像不再会出现怪异的面部扭曲。超分辨率的建筑图片将有可能通过消除镜头上的所有扭曲而形成平行线。随着手机变得能够大量产生精确度和逼真度皆十分惊人的照片,智能手机行业将能够在与单反相机的交锋中取得又一场胜利。

但是,智能手机摄影的长期趋势当然是远离现实主义,而转向取得更引人注目的效果。这在计算摄影诞生之前是无法想象的。因此,我们可能会看到3D传感技术的应用趋向于超现实主义。

举例来说,移轴相机可以用来创造一些出奇漂亮的效果,比如缩小景深到一个极端的程度,这会使得风景看起来就像玩具模型,但效果还是出奇的好,有些手机应用程序也能做到类似的事情,但将3D传感器与人工智能技术结合起来的效果,将远远超出那些应用程序所能达到的效果,Photoshop中有实现移轴的技术,但是每次按下快门按钮,相机都会产生同样的效果,毫无疑问会让人更加心满意足。

光靠人工智能可行吗?

未来,在推进机器学习技术方面,会有另一个重要的阶段。我们有可能会放弃使用3D传感器,而仅仅使用卷积神经网络(CNN)来推断物体在空间中的坐标,这将节省在手机中安装传感器的费用。

然而,就像微软的研究人员和学术合作者在本周发表的一份报告中所讨论的那样,目前这种只使用软件的方法收效甚微。他们写道,只使用软件的方法被称为“绝对姿态回归”(absolute pose regression),在经过训练后它并未能推而广之,这意味着无论卷积神经网络掌握了什么技术,在用新图像进行测试时,它都无法准确估量几何图形。

该报告的作者认为,他们的研究是对纯软件方法的“一项重要的合理性检查”。他们的结论是,“姿态回归方法要变得切实可行,还长路漫漫。”

这项工作将如何完成呢?不仅仅依靠研究人员。它将需要许许多多的智能手机用户的参与。有了带有3D传感器的新型手机,他们将能够拍摄出令人印象深刻的3D感应增强图像。当他们这样做的时候,他们的设备,或者云,将会跟踪现实世界的几何结构与二维图像之间的关系。

换句话说,它将利用所有的这些活动来持续进行学习,总有一天,只要有足够的3D图像,卷积神经网络或任何其它被使用的算法都能足够聪明地观察这个世界,即使没有3D传感器帮助提供深度感知能力,也能准确地知道这个世界是什么样的。

 

 

来源:网易智能

(声明:凡注明其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场对其它真实性负责。若有侵权或异议请联系我们删除。)