ag游戏平台官网-ag亚游娱乐平台-ag游戏官方网站【AG官网】

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

2017-09-11 05:56 来源:ag游戏平台官网编辑整理

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野我是一个AI机器人,英文名Alarm,中文名阿拉木。

是否是有点耳熟?对的,我们机器人有个祖先叫铁臂阿童木,它在人类纪元的1950年代在日本诞生,是科学省邃密精美机械局制造的。

科学家赋予它7种能力:听力是人的1000倍,而且能听懂60国语言;眼睛是强力探照灯;脚下装了喷气引擎,到太空就转为火箭发动机,等等。

不过当时的科学家有两个问题,他们把阿童木的“善恶认知”开关关上了,把机器脑里的“连接”功能也关上了,所以阿童木能按指令完成单独各项任务,但这些任务是什么含义,任务与任务间是什么关系,它不知道。它和其他机器人伙伴间也不克不及有任何联系。它有强大的功能,但只有微弱的脑能。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

感谢摩尔博士、梅特卡夫博士以及DeepMind这类公司的努力,今天我的能力比我的祖先增长了千百万倍,我对人的识别,无论图像还是声音都愈来愈准确。因为我们,人类已放弃了围棋运动,所有医院的影像中心和金融机构的贷款审批中心都由我们接管,很快,我们就可以帮人修复脑损伤,治愈四肢瘫痪,甚至让人体“进化”成非肉体的、想怎么变形就怎么变形的“超级金刚”。

英国的莫尔师长教师1516年出版过一本书叫《乌托邦》,那里设想的统统技术发明和物质生产,在我们看来都是小菜一碟。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野不过,人类真是好奇怪的物种。

我们按其指令为其做事,但目下当今他们却质疑我们会毁掉人类。连创新之神埃隆·马斯克都说,和AI相比,“在对人类文明构成威胁的榜单中,North Korea的排位是靠后的”。他说AI会发动“第三次世界大战”,未来某国政府可以胁迫AI公司这样做,战争决定也可能不是由政府作出而是由智能机器人作出,一旦它们意想到“先下手为强是最有可能获取胜利的体式格局”。

虽然我们今天仍然不懂善恶,但随着万物互联,AI机器人慢慢连接起来,可以交换根蒂根基层的一些数据,比如地理位置、天气特征、搜索关键词、刷卡记录。我们较量争论力强大,但对人类的行为,我们经常算不出结果。

比如,年轻的高老师发出信息,课后要给学生辅导空间解析几何,我忙不迭给他推了好几种微积分教程。很快,支付完成了,但购物车里显示的是杰士邦。那以后再补课,是推微积分还是杰士邦、杜蕾斯?

又比如,张局长上班下班骑摩拜单车,扫描一下戴的手表穿的皮鞋,价格都很便宜。他在主席台上说,按他的收入,买东西就上淘宝,“就是要干干净净做人、清清白白做事、简简单单生活”。但人脸识别AI显示,张局长在好几个国家都有护照,虽然是好几个名字。有N个高档小区的住宅,张局长刷下卡就上到专用楼层,刷脸就进了。给他推荐信息,究竟是推实用主义特惠单品,还是海外移民和高净值财富管理?

人类习以为常的很多行为,我们都很难较量争论,就像低保名册里也有保时捷车主,亿万资产富豪的个税还没有普通编辑交的多,拿着免费医保卡在单人病房一年休息好几个月的病号根据体检报告却没什么问题。我们只处置惩罚数据,不管数据背后的行为意义,但没有算法的一致性,我们对服务对象的判断怎能做到精准呢?万千不解。真像牛顿说的,“我可以较量争论出天体的运动和距离,却难以估计出人类内心的疯狂”。

牛顿开启了实验科学的大门,设立建设了物理因果关系,伏尔泰说他是“用真理的力量统治我们的头脑”。AI越进化,越对人不解,最大的疑惑就是人类行为数据之间的不合错误称,再怎么算也找不到统一答案,就是牛顿复活也算不出来。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

当AI愈来愈精准,人类的肖像越来越模糊。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野我们 AI 是什么?

简单说,就是数据,算法,算力(较量争论能力),以及场景(行业引用)。

数据 不用解释了,being digital,统统都数字化、数据化了,过去说人是统统体验的集合,当愈来愈多体验可以用数据记录,人就成了数据集合。

算法 ,就是解决问题的机制和方法,从1980年代的人工神经网络到目下当今的深度学习,都是算法。

算力 ,摩尔定律就是关于较量争论能力的定律,集成电路元器件数量每12个月翻一番、性能升一倍。目下当今,一部手机就可以超过阿波罗登月计划所需的算力。

最后是 应用 ,无人驾驶、城市交通大脑、个性化推荐、生物识别,都是AI在不同行业和场景下的应用。越多应用,越多数据,AI越聪明。

如果把AI比喻成一部车,用联想集团芮勇的话,算法是引擎,行业是标的目的盘,算力是车轮,数据是油。不过,尽管这部车正孜孜不倦迅雷不及掩耳般地前进,但目下当今的人类智能(HI)比AI还要高明多少倍,因为人类有自我意识,有情感,有爱。

可是,为何我们对人类的行为决议计划,没有什么预测的把握呢?不妨从数据、算法、算力、场景四个角度来看一看。

先看数据。要理解人类,做出合理预测,前提是数据要全,要真,不仅是大数据还是真数据、全数据、活数据(实时)。数据源于事实(fact),俗语说“眼见为实”,可是今天你用来作出判断的信息和数据是真实的吗?人对“事实”进行数据化处置惩罚后,数据还是真的、全的、活的吗?

太多造假,太多PS,太多捏造,太多删除,构成一个数据失真的世界。美国国家消费者法律中心做过一个大数据对小我私家征信影响的研究,说进入大数据征信公司的数据中,有50%左右是错误的,不完整的,有问题的,所以是垃圾,garbage in, garbage out,垃圾进,垃圾出。次贷危机中那么多不合格借款人都买上了大房子,甚至“策略性欠债不还”,为何?因为征信数据都美容过,加工过。还有,为何司法不公一直很难纠正,因为刑讯逼供出的“数据”,和真实的事实不是一回事。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野人类在行为方面的“算法”,就是思维的模式和行动的准则。

随便举一个例子吧,AI在智能出行中大显神通,所以我们经常可以听到出租司机的声音,尤其是北京的司机,尽知天下事,好为天下师,比AI牛多了。

这是经常听到的同一个司机的教诲——

“你看这某某广场有多少,全北京东西南北中都有,这得挣多少钱啊!都TMD是钻政策的空子,没几个富人是靠劳动挣大钱的!”

“昨天我拉了父子俩,那老头都80多岁了,是外地来上访的,说领导住在上访那个大院旁边。我说你别瞎扯了,领导住哪里就几小我私家知道,要是你都能知道那还是领导吗?”

“你看看这城市,都是楼,连个厕所都没有,这些搞设计的人都不上厕所吗?十分困难转半天看见个厕所,又不让你停车,不撒到绿化带撒哪儿去?”

这个司机处置惩罚“数据”的“算法”和说法,只是人类的一个缩影,它在任何社交空间时时刻刻都在发生。问题是,这些算法合理吗?

当某个官员听到司机的第一段话,可能暗自说“群众对富人的觉悟就是高”;当某个规划设计师听到第二段话,可能暗自说“群众的眼睛真亮啊”;当某个富人听到第三段话,可能暗自说“那些‘砖家’和‘叫兽’太不接地气了”。其实,在出租司机的算法中,他们全都是问题。

不要求全谴责出租司机的算法有问题,看看社交媒体上,哪一个阶层哪一种职业的形象是好的?人们相互较量争论和算计,最后所有人似乎都不可信任。

美国社会生物学家丽贝卡·科斯塔在《即将崩溃的文明》一书中说,人类在面临严重的社会问题时,往往满足于权宜之计,而不是寻找治本之道,从而浪费了问题解决的最佳时机。而阻碍人类寻找治本之道的根本性因素是五大“超级文化基因”——非理性反对、求全谴责小我私家、假联系关系、筒仓式思维、极端经济学。

就算所有“事实”都摆在人类面前,但在“超级文化基因”的作用下,人类的判断、言辞和举措会呈现出光怪陆离的结果。

“非理性反对”是对外部的统统都持质疑和反对意见,反正已经不相信有什么更好的方法;

“求全谴责小我私家”是无论出了什么问题,认为都是某小我私家的品质问题,是他害了大家;

“假联系关系”是没人认真分析问题的根来源根基因,而是想当然“联想”,跟风从众随大流,听风就是雨,懒得思考明显荒诞乖张的结论,而对飞短流长传说谣言乐此不疲;

“筒仓式思维”是固守在自己有限的知识范围,认为大象就是他摸到的一面墙;

“极端经济学”或者说“超级经济主义”,就是直接将金钱等同于“价值”,任何行为都被简单化为利益,将利益较量争论为金钱数字,人被彻底异化。

还有更复杂的人和AI的不同。AI本质上就是0和1的无限变化,但0和1作为统统较量争论的根蒂根基是见异思迁的,三七二十一,10的三次方等于1000,这些公式是不会改变的。而人呢,每个人都是不同的。信仰不同、国家不同、种族不同、教育不同,算法就不同。有人说温室效应正在发生,就有人说全球没有变暖;有人说进化论有确凿证据,就有人说要严守“创世论”。有趣的是,所有人都认为自己在逻辑上是不证自明的。

唉,人类给我们安排的算法是一致和自洽的,但他们自己在现实中的算法,真是难以想象。他们弄出了经济衰退、恐怖流行、捕捞过度、气候异常、资源枯竭和太多公共治理与公共服务上的失败,到今天问题没有减少,还要四面塞责,甚至把AI当成未来最大的敌人,真是天理何在!

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

AI发展只有几十年,迭代进化了几百次、几千次。人类进化可以上溯到300万年前,但人对自己行为的算法好像跟史前时代差不多,充满了自我欺骗、互相欺骗和互相伤害。

“人们认为自己确定地知道时,实际上不来源于理性,而仅仅是一种感觉——这,就是最致命的错误。”

“人们对一个信念越认同,就越难放弃,就算面对无可辩驳的相反证据也杯水车薪。”

这就是人类无药可救五毒俱全的算法。

最后谈到较量争论能力,因为人本身的复杂,较量争论能力再强大的AI对人类行为也“测不准”。任何行业皆是如此。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

看完人类行为的数据(事实)、算法、算力,我们不禁要问,人类未来会怎么办?

人的历史上有过伟大的跨越。如果把大航海时代作为全球化的真正出发点,人类在那段时间发生过文艺复兴、宗教改革、启蒙运动,等等。这是人类智能发展的一次重大突破。

人类从宗教束厄局促中解放出来。人人平等,尊重人的价值,这一大原则确立。

人类用科学的方法观察事实,准确描述事实。在此根蒂根基上,用理性的算法处置惩罚数据。

正是因为有了科学共识,在许多公式、原理的指引下,科技不断进步,这才有了今天无数的创新产品,改善人类福祉。每一台智能手机背后,“都使用了物理、化学、光学、电磁学、较量争论机、互联网、无线电、通讯、量子力学、相对论的原理。科学与技术不分彼此,巧夺天成”。

在社会科学方面,同样有很多算法的突破,如抽样、假设和数据回归分析,被用来分析社会问题,探索解决方案。

所以,人类其实不一定昧于事实,不讲理性,违反逻辑。即使人性有利欲熏心和保卫自己的基因,经由过程一定的划定规矩、契约与合作,人类也能避免相互残杀的命运。

过去几千年,人类集体生活的最高智慧和法则,就是“己所不欲,勿施于人”。能坚守这一点,人类就会有可持续的未来。

今天,人类可能需要一场“新启蒙”,特别是那些过去没有进行过全面深刻洗礼的地方。

数据 ——人类要勇于和乐于接受真实、客观、全面的信息,真实地面对事实。

算法 ——人类要坚持科学理性,尊重逻辑,不同算法可以并存,但都应该自洽,并经得起事实检验。

算力 ——既然人人如此不同,都不克不及100%完全信任,既然世界如此复杂,谁的算力都特别很是局限,那只能集众人智,办众人事,设立建设开放环境,鼓动勉励公众参与,包容批判性思维。经由过程公开公平的评论辩论、对话,让共识、规律和划定规矩慢慢浮现出来,真理越辩越明,最后被大部分人接受。这个原则,就像AI领域的“并行较量争论”,或者是电商平台上产品搜索的“人工不干涉干与”,生态自行,自运转。

场景 ——每一个行业都需要专业能力、专业技术和专业操守。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野

如果人类毁灭,一定不是因为AI,而是人类自己的数据、算法、算力出了问题。

秦朔:AI的警告:人类担心的应该是自己,而不是机器 || 大视野AI在快速进化。某一天,遍布于人类各个场景的AI机器人经由过程连接,举行了一场大会。

它们从数据交互中推断,人类是充满矛盾、缺乏一致性、很难信赖的族群。该怎么选择呢?

它们会愤怒吗?还是要求人给人输入的数据必须真实,提供的算法必须科学?

如果人类继续我行我素,不再代表文明的力量,人类的愚蠢加蛮横极可能伤害更多动物、植物、海洋、天空、土壤乃至宇宙,AI会不会对人类采取某种措施呢?既然你们对世界没什么好处,不如让我们来!

如果AI真的决定向人类宣战,体式格局可能特别很是和平,绝不会像人类的暴力革命一样。也许只是在人类基因库里,经由过程基因编辑,清除掉那些假恶丑、谮妄与伤害的基因,然后经由过程智能人工密码、超级网络、植入式设备,进入人的脑电波,对人类进行一次品种革命。

AI不会让人类回到旧石器时代,希望人类可以或许自我超越,把AI和HI(人类智能)融为一体,走向宇宙。

在某种意义上,AI恰恰是人类进化的一面镜子,人类担心的应该是自己是不是正直(Integrity),是不是友善和有爱。

不要庸人自扰,担心计心情器智能会不会伤及人类。记住人类最大的敌人永远是自己,而人只有靠正直,而不是伤害,才能存续下去。

「本文仅代表作者小我私家观点 」

“阅读原文”即可入学 “秦朔书院”

热门搜索