凉山信息港
体育
当前位置:首页 > 体育

为什么说人工智能想要取代人类还很遥远

发布时间:2019-04-08 12:57:07 编辑:笔名

人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。

人工智能诞生有61年,但它从高冷科技到被吃瓜群众围观也就是这几年的事。我们可能一直在媒体上看到人工智能做各种各样的事,文可遣词造句写文章,武能扛枪指挥上战场。所以总有一种声音在告诉我们:人工智能总有一天什么都能做,到时候你就是它寄生的一部分,甚至被它控制。

但近期的一系列事件在告诉我们一个相反的结论:谈论人工智能取代人类还为时尚早,至少有一些问题需要解决。

人工智能还不够成熟人工智能有一个基本的优点,就是能在长时间的工作中保持中立和准确性,这也是很多公司开发人工智能的一个主要原因。比如说,IBM Watson认知计算平台用于医疗的效果很不错。但不是所有的人工智能都那么靠谱,比如近期用于Facebook消息流的人工智能就捅了篓子。

Facebook的趋势版块一直被人指责有严重的政治偏向,后来Facebook炒掉了整个合同工,原来的工作完全由人工智能代替,但没过几天,人工智能就闯了大祸:它给趋势版块推送了一条假,宣称福克斯电视台解雇了一名主持人,并且称该主持人是 叛徒 ,在Facebook修正错误之前,可能有数百万用户看到了假。

Facebook推送的假

而后续更令人惊讶。Facebook为了人工智能炒掉了整个人类团队,在假事件发生之后,有三名原站出来宣称,在他们被解雇之前,Facebook力推的算法其实并不完善,甚至有爆料,原来他们审核人工智能算法推荐的时,发现算法推荐的50篇文章一般只有20篇才是真,而且这20篇来源也不够权威。

Facebook 趋势话题 (Trending)版块

这个事例中,人工智能可能没有人类对事件的好恶偏向,但本身的准确性大大降低,直接影响了推荐的质量。们表示,除了工程师不断提高算法,对于人工智能系统的训练也是不可或缺的,但这里的人工智能没有经过充分学习,就被Facebook出于中立性的考虑被急急忙忙推出来见人了。

后来的事情更是严重:Facebook推出人工智能算法的时候正好撞上美国大选,然后争议不断的特朗普当选总统,各种对结果不满的人开始指责Facebook:都是你们消息流上的假帮特朗普胜选!这种说法可能有甩锅的嫌疑,但Facebook上流行各种关于大选的假倒是真的。

据说在欧洲一个叫 马其顿 的国家,一些青年靠建立假站、编假来挣广告费,而传播假快的途径就是通过Facebook。现在,被骂的狗血喷头的Facebook开始采取各种措施打击假,效果如何,还尚待时日证明。

这件事情告诉我们,人工智能完全成熟需要时间打磨。技术人员需要不断改善人工智能的算法;更重要的是消防管件
,人工智能做到模仿人类思维必然有一个学习的过程,而绝大多数的学习过程是通过人类训练而进行的。

目前各大科技公司开发人工智能的时间还不够长,相应的系统学习也没有那么成熟,可以说是相当于几岁或者十几岁少儿的水平,让这样的系统承担成人才能做的工作,可能超出了目前系统的承担能力洗车工具厂家

人工智能也会被欺骗相比人工智能本身缺陷导致的错误,这一条目前还不太为人所注意,但仔细想想,黑客入侵系统对于人工智能是个显而易见的威胁。作为以各种算法为基础的系统,一定存在被黑客攻击的可能。

黑客目前可能常用的攻击手段就是欺骗人工智能。近期的各种电信诈骗告诉我们人类本身也不是时刻都保持聪明,对于缺乏完全思维能力的人工智能更是如此。在这方面,黑客把欺骗手段可以玩出花样。

比如说,美国的研究人员可以通过生成的3D模型欺骗人脸识别系统。这些研究人员首先在社交站上收集人脸照片,通过这些照片制作人脸3D模型,并加入面部表情或者眨眼之类的小动作,至于皱纹之类的面部细节可以伪造,这样生成的人脸3D模型在55%到85%的测试时间中可以骗过五分之四的人脸识别系统。

研究人员通过照片制作人脸3D模型过程

除了欺骗人脸识别系统,黑客还有可能攻击自动驾驶系统。比如曾经就有黑客利用特斯拉Autopilot系统漏洞,成功 催眠 特斯拉。

研究人员使用 噪音进击 方式干扰特斯拉

如果这个系统本身就不够成熟,那就搞笑了。曾经有测试一个刚起步的人工智能投资机器人,结果这个机器人为虚构的创业项目要扔1400万美元。

人工智能要给虚构的创业公司 投资 1400万美元

所以说,目前再厉害的人工智能,还是有被欺骗的可能,至少我们不能将它作为的依靠来判断事情或者做决定。

人工智能还不能明辨是非谈到 明辨是非 ,对于目前的人工智能来说可能要求太高,毕竟连人类都不能做到永远明辨是非。有人甚至害怕,如果让人工智能明辨是非,就意味着人工智能有了自己的判断和好恶,这样它就不能完全听人类的话,甚至有背叛人类的可能。

其实没那么玄。之所以让人工智能学会明辨是非,是让它能够判断出人类让它做的事情本身是对的还是错的。

一个不会判断是非的人工智能,可能会变成某个居心不良的人的杀人工具,会无条件执行恶人的命令;即使问题没那么严重,也有可能是这么一种情况:一个记性不好的老人让人工智能机器人给花浇水,但实际上机器人刚刚給花浇过水了。

电影《终结者》中的机器人

让人工智能判断命令背后的风险,并且避免风险,是人工智能真正变成 智能 的重要一步。目前其实有人注意到这一点,他们试图开发能让人工智能做出简单判断的控制技术,还有人提出要给人工智能教道德和法律。

但目前,相关的技术还在开发中,至于教授道德法律,科技巨头为此专门召开会议,试图制定人工智能的道德规则;而欧洲议会也推进关于自动驾驶和人工智能的相关法案,明确发生相关事故后的,并且要求人工智能机器人要加装 自毁按钮 。但这些努力目前都只是个开始。

美国五大科技巨头开会制定人工智能道德标准

美国科技杂志《连线》前主编凯文 凯利曾经在他的书中写到,人类对人工智能的心态有7个阶段。目前我们对人工智能的心态可能是这样的:

人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务广州废电缆回收公司
。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。

在笔者看来,跨越前文所述的三个问题,人工智能才能完全承担人类给它的工作。

(文章来自新浪科技,原标题为《天天说要取代人类,为什么人工智能还是做不到?》,文/姜轶群)

更多精彩内容,关注钛媒体号(ID:taimeiti),或者下载钛媒体App

时间获取TMT行业新鲜资讯和深度商业分析,请在公众账号中搜索「钛媒体」或者「taimeiti」,或用扫描左方二维码,即可获得钛媒体每日精华内容推送和搜索体验,并参与活动。

个人觉得只能只能用于服务于某些非情感行业,例如:计算、程序处理。需要认为情感判断的还是不用机器人的好。

18:30 via android

人工智能未来十年能不能取代人,这个问题不解决,会影响很大的投资误判与决策,如果路修好了,车还上不了生产线,到时就尴尬万分了。

23:07 via iphone

这篇说的取代,是指某个行当完全不需要人了吧。但还有一种取代,是指某个行当在人工智能辅助下只需要留下极少数人就行了。这可就未必是遥不可及的了。

15:00 via weibo

教会他自己添加新任务就可以了…只不过好坏都学…就危险了…就像国外被教坏的微软机器人…

14:25 via weibo

我们会向您的号发送验证码,请查收并按提示验证您的号。如果您没有收到短信,请留意垃圾短信拦截

经检测,你是“钛媒体”和“商业价值”的注册用户。现在,我们对两个产品因进行整合,需要您选择一个账号用来登录。无论您选择哪个账号,两个账号的原有信息都会合并在一起。对于给您造成的不便,我们深感歉意。