人工智能能被黑客入侵吗视频-人工智能能被黑客入侵吗

hacker|
188

人工智能真的能统治人类吗

作者:刘明河

近期,警惕人工智能的文章和报道越来越多,甚至有人宣称“随着计算机运算能力增强,强人工智能将在我们的有生之年出现,给人类文明带来前所未有的冲击”,这些看似有理有据的观点深入人心,很多人甚至心生恐惧,担忧起了自己的未来。

人工智能真的会对人类产生如此大的威胁吗?

【困难重重】

对于人工智能这个过于庞大的概念,我们将它区分成弱人工智能(weak AI,或Narrow AI)和强人工智能(Strong AI或General AI)。

弱人工智能是处理特定问题的人工智能,AlphaGo就是一个专门下围棋的弱人工智能,iPhone里的Siri是一个专门语音识别的人工智能,Google的搜索框里也藏着一个专门提供搜索建议的人工智能——多亏了如今盛极一时的“人工神经网络”,我们已经愉快地发现,弱人工智能表现得非常出色,在某些时候真的比人类还要高效。

与之对应的,强人工智能模拟了完整的人类心智,我们通常会用能否通过“图灵测试”看作强人工智能的判断标准,但这样的人工智能直到今天仍未实现。另外,我们还进一步遐想了“超人工智能”这个概念,顾名思义,就是比人还睿智的人工智能,也就是科幻艺术和大众媒体中最担心的那种情形——但在人工智能的实践上,我们恐怕要说这更接近盲目乐观,追求的强人工智能的征途绝不像一些未来展望者那样,近在咫尺,迫在眉睫,数不清的艰难问题还等着我们攻克。

我们遭遇的第一个问题就是计算机的运算能力。

细胞虽小,却异常复杂,神经元尤其如此。在最微小的尺度上,一个神经元有成千上万个突触与其它细胞连接,释放或接受神经递质,识别数百种独立的活动,随后发出高速传导的神经兴奋,在整个大脑内激起复杂而不确定的反馈,有些突触还可以直接向脑脊液中释放递质和激素,在全身范围内引发更大尺度的反应——时至今日,人类发现细胞已近400年,即便动用最强大的超级计算机,也只是静态地构建出了一个突触的微观结构,真要模拟它完整的活动还无能为力——而人脑大约有860亿个神经元。

当然,神经科学与计算机科学的交叉处也的确有了些令人瞩目的成果,比如为人称道的,我们标记了隐杆秀丽线虫(Caenorhabditis elegans)302个神经元的连接方式,大约在2014构建了一个“开放蠕虫”的项目,试图用计算机模拟出一个等效于实体的虚拟线虫——但这个项目才刚刚起步,尚未收获成果,而且这个研究对象也是出奇的简单:它雌雄同体,全身固定有959个细胞,每个细胞的行为都专一且固定,神经活动非常单调,我们因此得以详细地观察它,用现在的手段模拟它们。

但是如果因为这一点星光就以为破晓来临,以为秀丽线虫的神经节与人类的大脑只是神经元的数目有所差异,只要计算速度够快就能实现质的飞跃——那就未免太天真了。

我们还会遇到动力学参数的壁垒。

如我们提醒过的,以现在的技术,我们还不能模拟神经元的完整活动,让它们在虚拟世界里自主地运动起来。只是在这个项目中,我们既然已经知道了线虫神经的连接方式,就能人为地给这些连接赋予动力学的参数,让这些虚拟神经元活动起来,逼真地模拟一条线虫。就像做题虽然不会,但是拿着答案倒推,也能猜个八九不离十——所以我们称这种做法是自底向上。

然而在目前阶段,不但我们还是个相当差的学生,离开了答案就寸步难行;而且我们遇到的问题也是空前的难题,根本没有现成的答案。

线虫的神经与人类的大脑,就像口中呼气和超级台风,它们之间绝不只是数量的差异。当基本单元通过种种联系形成复杂的系统,就会在更大的尺度上展现出新的结构。我们很早就对小尺度上的流体运动有了清晰的认识,但这并不代表我们可以从中推导出台风的运动规律。

首先的,线虫的个体差异极小,不同个体的细胞排列方式完全一样,所以作为一种全身透明的实验动物,我们很早就弄清楚了它们神经连接的方式。但人脑完全不是这样,我们拥有数量巨大的神经元,个体差异很大,而且可塑性极强,这令每个人大脑内的神经元连接方式都不一样——换句话说,一个具体的神经元怎样连接不重要,重要的是数量巨大的神经元如何组织成一个复杂的机体。

然而1个神经元、10个神经元、100个神经元、1000个神经元……每增加一个数量级,神经元的活动都会涌现出新的运动规律,从最小层面上神经元处理兴奋的方式,到不同递质的通路的组合方式,到处理不同信息的细胞构成功能模块,到大脑中不同功能区域的协作方式,都是我们必须面对的难题,虽然这些动力学的研究也正在热火朝天的研究中,但这样的研究不可能达到“指数上升”的速度,我们重建人脑的进程也就不能达到指数上升的速度。

所以先不论计算机科学能否一马平川地进步下去,即便计算机运算速度真的能指数上升,也无法在可以预见迅速地模拟出一个人脑:在神经科学和脑科学臻于高度成熟之前,大脑永远是一个黑盒子,我们要想知道大脑在具体的智力活动中在不同层面各自发生了怎样的事情,还困难重重。而且更加现实的情况是,随着我们对人脑的认识逐渐扩大,我们会发现越来越多的新问题。

我们知道的越多,就越发现自己无知,然而糟糕的是,真正的难题还在前方虎视眈眈——我们需要新的计算机原理。

必须意识到,在能否实现“智力”这个巨大的问题上,计算机的运算速度并不是决定性的。以当今的动物界而论,非洲象、长肢领航鲸,它们的大脑都比人的更重,神经元的数量也更多,为何偏偏缺乏智力?在相同的解剖基础上尚且如此,原理完全不同的电路元件,又该如何?

电路元件以金属和半导体为元件,获得了接近光速的信号传递速度,这比起神经元的冲动的确快多了,但也单调多了。电路元件的任何一次反应都只能得到固定的结果,只能在和、或、且的基础上展开一阶逻辑演算,今天,以及未来可以预见的一切计算机程序,都是不同复杂程度的一阶逻辑演算。

“一阶逻辑”已经非常强大,给今天的人类带来了整个21世纪的信息时代,但它只能从几个初始数据开始,根据预存的指令步步推导,绝不越雷池一步。这给计算机带来了那种可贵的可靠性,但也令它失去了更可贵的抽象、推理、创造——我们必须能够定义谓词的二阶和高阶逻辑。

举个例子,面对“a+b”这样的命令,计算机只会按照加法的规则,把a和b加起来,但是对于具有二阶逻辑的人,我们还会思考加法的意义,询问“加法是怎样一种运算?”,接着,我们还会能在三阶逻辑中思考“运算”的意义,询问“怎样规定一类运算?”,进一步的,我们又会在四阶逻辑中思考“规定”的意义,询问“数学上什么样的行为称得上规定?”。

这样的追问可以无穷地回溯下去,理论上,人类的思维可以实现“无穷高阶逻辑”,我们已经在整个哲学史上持续不断地展现了这种能力。对于普通人,我们也可以尝试一个计算机无论如何做不到的思维游戏:随便思考一件事,然后思考“我正在思考这件事”,然后思考“我正在思考‘我正在思考这件事’”,然后思考‘我正在思考“我正在思考‘我正在思考这件事’”’……虽然很费脑子,但我们在理论上也可以无穷地递归下去。

是的,如今所有的计算机都是一阶逻辑,或许在某些实验室里还有二阶逻辑的尝试,但无论怎样,高阶逻辑问题不能规约成低阶逻辑——我们绝不能用加法本身说明什么是加法,这就好像在电视机上做电视机的广告。

也就是说,我们即便动用了空前的计算能力,以不可思议的工作量找到了大脑中的每一个参数,但只要计算机原理不变,就是在用低阶逻辑模拟高阶逻辑——这在数学上不可能,程序员们会发现某些关键的参数无法定义,那个辛苦模拟出来的大脑仍然是个弱人工智能。

这是一个尖锐的问题,即便在另外一些规划中的道路上,用进化算法也好,用其它方式建模也好,它都会横亘在我们的前途中。我们需要一种革命性的计算机,能够实现高阶逻辑的演算,但是在所有已知的事物中,就只有大脑能做到这件事,这就带来一种新的困境:要模拟大脑需要新的计算机,要研究新的计算机就要深入了解大脑。这当然不是无法解决的问题,就好像制造新的机器需要新的材料,合成新的材料需要新的机器,我们在科技进步史上已经邂逅了无数次,没有理由认为我们会败给这一次,但也要做好思想准备,因为这将是一条漫长的路。

这样或者那样的问题会接踵而至,人工智能作为这时代最复杂的应用科学,没有理由认为我们能以逸待劳地只凭计算机科学的进步就让一切问题迎刃而解,更何况退一万步,我们还有一个更加现实的问题要面对。

【伦理障碍】

对与任何革命性的新技术,伦理都是最现实的问题,我们此前目睹了避孕措施对伦理的冲击,就以为伦理在技术面前不堪一击,这就未免太低估了伦理的力量,像“知情权”这样毫无意义的概念被煽动家利用起来蛊惑人心,都可以在食品安全领域掀起巨大的波澜,那么从今天开始数十年乃至上百年对人工智能的担忧积累起来,无论合理还是不合理,都会形成强大的伦理氛围,阻遏强人工智能的研究。

先不论“人工智能灭绝人类”这样惊悚的事情,就以最现实的问题来说,公众一定会关心强人工智能是否具有情感,是不是有了心脏的铁皮人,然而这却是强人工智能的定义中不曾提及的问题。

与其它意识活动不同,人类丰富而细腻的感情是人类作为一种社会动物,协调群体关系时的进化产物,并非智力的必需品。一个强人工智能未必真的具备这些特质,但他一定可以理解这种行为:想象成一个人先天性地没有任何感情,但以细致的观察和精湛的模仿成为了一个无可挑剔的表演家,在舞台上无论是哭是笑,心中都绝无一丝涟漪,犹如用肢体和表情肌完成了最复杂的体操——这大约就是电影《机械姬》中的情形。

长期以来,感情被认为是自由意志最关键的特质,所以我们不得不想象在那样的未来,分辨强人工智能是真的拥有感情还是在逢场作戏,抑或这两种情况并没有区别,都将会成为人工智能领域最重大的课题,也是人类面对自己时最深刻的拷问——无论哪一种结局成真,都意味着一个旧伦理的世界不复存在:我们要不要承认它是一个人?进一步的,“他”是否适用实体法,可以拥有最基本的人权?我们还能不能把“他”囚禁在实验室里?

我们接着就会设想,强人工智能如何利用自己的感情获取人类的信任,争取平等的对待,争取公民权的运动。强人工智能的感情或许只是一层伪装,但人类心底那种与生俱来的同情和善良却是毫无争议的事实,在这样的未来图景之下,强人工智能的研究几乎必然招致严格的限制,就像我们如今对待克隆技术时的做法:我们在上个世纪就掌握了克隆哺乳动物的技巧,但是在可以预见的未来里,这个世界上都不会有克隆人降世。

或者更武断地说,无论技术是否成熟,我们都不会允许一个拥有完全心智的强人工智能轻易问世,我们可能会在全球最重要的实验室里有限额地研发几个被严重削弱的强人工智能,成为认知科学和计算机科学的珍惜样本,如果要想象强人工智能诞生在民用领域,就像《机械公敌》或者《西部世界》那样,就未免不切实际了。

最后,我们要再次反省一下预测未来这件事:一个平静的社会大概激不起人们什么兴趣,所以我们总是在变革的浪潮中“高瞻远瞩”,但是我们忘了,科学革命或许加快了人类探索和改变世界的速度,但人类的认知过程从来都不是一帆风顺。旁观者赞美收获时的成就,却很少理会耕耘时的艰辛,盲目乐观是他们永远无法摆脱的缺陷。

目前还有哪些领域没被人工智能侵入?

人工智能的发展其实一直都很快,虽然目前并没有普及开来,扫地机器人,儿童教育智能机器人,算是目前应用比较广泛的。但是还有一种职业,没有被人工智能所替代,那就是厨师这个职业。

早在15年,英国科技公司Moley Robotics  在位于伦敦北部的一个仓库展示了其  最新产品——机器人厨房系统,这套系统被该公司称为  “世界上第一款自动化厨房“。可实现完全自动化的烹饪体验,Moley Robotics机器人厨房本质上,是两个非常昂贵的机械手臂,同时还配备了炉灶、烤箱以及各种厨具。运行ROS机器人系统,可以通过房间内的动作捕捉摄像头,记录人类厨师的操作,并进行采样及效仿,从而实现精确的烹饪体验。

这个系统的不足之处是需要,将配料等内容精确地摆放在一定位置上,机械手臂才能正常辨别并使用,这个缺点是很致命的。因为这样会推翻全自动化的理念,到头来还是要人工手动,中国早前也有机器人厨师,还跟烹饪界大师PK过,但最终的结果是烹饪大师获胜。营养学,以及食物搭配禁忌,还要有自创菜肴的本事,最最最重要的,也是最基本的  ——刀功  根据食材的不同,切取食材的方式和手法也不同。就算一条鱼,一只鸡,大小不一样,切的手法和动作也完全不一样。这些机器人又怎么能做到呢?

前不久,杭州有30名厨师集体跳槽,发布求职信的厨师说  “因为整体餐饮界的走向,以快消连锁模式为主,比如外婆家、绿茶,很多餐品都是半成品  不需要功底,做一个菜,买来就可以用了。导致现在很多单位都不招大师傅,招的大都是中工、小工、学徒。”厨师的地位确实是一再动摇,但以中华料理的博大精深,厨师是不可能退出舞台的,只希望中华料理能继续传承下去。最后,菜中不能少了人情味,特别是中国菜。每个厨师的拿捏都不一样,所以才会有中国菜的韵味,机器人做出来的菜都一个味道,两相比较  还是更愿意吃有人情味的菜。

人工智能,这五个行业岗位未来很吃香

人工智能与人类工作是当下许多人津津乐道的一个话题,而讨论的重点大多是围绕在“未来人工智能会不会抢走我们的工作”这个方面。本文作者 Babak Hodjat 是人工智能初创企业 Sentient Technologies 的联合创始人兼 CEO,他认为,那些担心 AI 会抢走他们工作的人其实大可不必如此紧张,因为 AI 也会催生新的工作岗位。

“人工智能”一词经常会让人感觉心生恐惧和忧虑,人们畏惧人工智能所带来的未知可能性,害怕发生像《终结者》这样的电影中所展现出来的反乌托邦式情景,担心人工智能未来某一天可能会抢走我们的工作。这种恐惧情绪并非最近才刚刚出现,也并不是完全没有依据。人工智能与其他任何颠覆性技术发明一样,由此出现的更快速、更高效的机器必然会取代部分人类工作者。但是,那些担心 AI 会抢走他们工作的人其实大可不必如此紧张,因为 AI 也会催生新的工作岗位,而他们至少可以往这些新工作方向发展。

据 Gartner 最新发布的一份报告指出,尽管 AI 技术将取代 180 万个工作岗位,但同时也将创造出 230 万个新就业岗位。Gartner 首席研究员 Peter Sondergaard 预测表示,AI 将强化员工的工作能力,并可能成为 2020 年的“净工作创造者”。我相信,AI 与过去所有的其他颠覆性技术一样,将为我们带来许多新就业机会。

得益于 AI 技术的兴起,以下五个行业岗位将呈现出显着的增长趋势:

1、数据科学家

数据科学家属于分析型数据专家中的一个新类别,他们对数据进行分析来了解复杂的行为、趋势和推论,发掘隐藏的一些见解,帮助企业做出更明智的业务决策。正如致力于商业分析和商业智能软件的 SAS 所说的那样,数据科学家是“部分数学家,部分计算机科学家和部分趋势科学家的集合体”。

以下是数据科学应用的一些例子:

Target 使用消费者数据来确定主要客户群,并且对客户群中独特的购物行为进行分析,从而能引导消息传递给不同的受众。

宝洁公司利用时间序列模型能够更加清晰地了解未来的产品需求,从而帮助公司规划出合适的生产量。

由于AI 推动了创造和收集数据的趋势发展,所以我们也可以看到未来对于数据科学家的需求也将日益增加。据 IBM 预测,到 2020 年,对于数据科学家的需求增长幅度将达到 28%,数据科学家、数据开发人员和数据工程师的年需求量将达到 70 万人。其中一般的 AI 领域专家,包括刚踏出校园的博士生以及相对教育程度低一些、但是有几年工作经验的专业人士,每年薪水加公司股票可能在 30 万美元至 50 万美元范围内。

2、AI/机器学习工程师

大多数情况下,机器学习工程师都是与数据科学家合作来同步他们的工作。因此,对于机器学习工程师的需求可能也会出现类似于数据科学家需求增长的趋势。数据科学家在统计和分析方面具有更强的技能,而机器学习工程师则应该具备计算机科学方面的专业知识,他们通常需要更强大的编码能力。

如果你是十年前进入机器学习领域,那当时除了学术界之外很难找到别的工作。但是现在,每个行业都希望能将 AI 应用到他们的领域,对于机器学习专业知识的需求也就无处不在,因此 AI 也将继续推动 社会 对于机器学习工程师高需求趋势的发展。除此之外,AI 不同垂直行业的企业,包括图像识别、语音识别、医药和网络安全等,也面临着缺乏合适技能和知识的劳动力这一问题的挑战。据 Gartner 报告显示,有一位首席信息官想要在纽约聘用 AI 技术的专业人才,却发现人才库只有 32 人,其中只有 16 人符合潜在候选人标准。而在这 16 人中,只有 8 人正在积极寻找新就业机会。

3、数据标签专业人员

随着数据收集几乎在每个垂直领域实现普及,数据标签专业人员的需求也将在未来呈现激增之势。事实上,在 AI 时代,数据标签可能会成为蓝领工作。

IBM Watson 团队负责人 Guru Banavar 表示“数据标签将变成数据的管理工作,你需要获取原始数据、对数据进行清理,并使用机器来进行收集。”标签可以让 AI 科学家训练机器新任务。

Banavar 继续解释道:“假设你想训练一台机器来识别飞机,你有 100 万张照片,其中有一些照片里边有飞机,有一些没有飞机。那你需要有人先来教会计算机哪些图像有飞机,哪些又没有飞机。”这就是标签的用处所在。

4、AI硬件专家

AI 领域内另外一种日益增长的蓝领工作是负责创建 AI 硬件(如 GPU 芯片)的工业操作工作。大 科技 公司目前已经采取了措施,来建立自己的专业芯片。

英特尔正在为机器学习专门打造一个芯片。与此同时,IBM 和高通正在创建一个反映神经网络设计、并且可以像神经网络一样运行的硬件架构。据 Facebook AI 研究总监 Yann LeCun 表示,Facebook 也在帮助高通开发与机器学习相关的技术。随着人工智能芯片和硬件需求的不断增长,致力于生产这些专业产品的工业制造业工作岗位需求将会有所增长。

5、数据保护专家

由于有价值的数据、机器学习模型和代码不断增加,未来也会出现对于数据保护的需求,因此也就会产生对于数据库保护 IT 专家的需求。

信息安全控制的许多层面和类型都适用于数据库,包括:访问控制、审计、认证、加密、整合控制、备份、应用安全和数据库安全应用统计方法。

数据库在很大程度上是通过网络安全措施(如防火墙和基于网络的入侵检测系统)来抵御黑客攻击。保护数据库系统及其中的程序、功能和数据的安全这一工作将变得越来越重要,因为网络开放程序越来越高。

总会需要人类的判断

尽管人工智能可以用来加速日常工作的节奏,并且未来可能会取代一些岗位的工作人员,但相比它破坏的工作来说,它创造的工作更多。无论是分析、组织,还是根据数据达成可行结论,这些过程中人类的角色仍十分必要。也正是因为如此,人类在创造、实施和保护人工智能方面的作用将变得更为重要。

正如 FrostSullivan 高级副总裁 Andrew Milroy 所说:“实现转型所缺少的人力资源将会降低技术采用和实现自动化的速度。AI 会创造就业机会。随着新型、颠覆性技术的出现,新的高技能工作岗位也会出现。而没有人类工作者,这些技术的实施是不可能实现的事情。”

人工智能是人类未来实现连续统一目标的一个步骤。AI 技术所创建的工作能够让生活更轻松,将人类工作者从琐碎的工作任务中解放出来。而当前 AI 技术的传播速度和普及趋势在给我们创造更多就业机会的同时,也意味着我们面临着一个新的挑战,我们需要培训工作人员转向这些新职位。

人工智能有没有机会统治人类?

作者:刘明河

近期,警惕人工智能的文章和报道越来越多,甚至有人宣称“随着计算机运算能力增强,强人工智能将在我们的有生之年出现,给人类文明带来前所未有的冲击”,这些看似有理有据的观点深入人心,很多人甚至心生恐惧,担忧起了自己的未来。

人工智能真的会对人类产生如此大的威胁吗?

【困难重重】

对于人工智能这个过于庞大的概念,我们将它区分成弱人工智能(weak AI,或Narrow AI)和强人工智能(Strong AI或General AI)。

弱人工智能是处理特定问题的人工智能,AlphaGo就是一个专门下围棋的弱人工智能,iPhone里的Siri是一个专门语音识别的人工智能,Google的搜索框里也藏着一个专门提供搜索建议的人工智能——多亏了如今盛极一时的“人工神经网络”,我们已经愉快地发现,弱人工智能表现得非常出色,在某些时候真的比人类还要高效。

与之对应的,强人工智能模拟了完整的人类心智,我们通常会用能否通过“图灵测试”看作强人工智能的判断标准,但这样的人工智能直到今天仍未实现。另外,我们还进一步遐想了“超人工智能”这个概念,顾名思义,就是比人还睿智的人工智能,也就是科幻艺术和大众媒体中最担心的那种情形——但在人工智能的实践上,我们恐怕要说这更接近盲目乐观,追求的强人工智能的征途绝不像一些未来展望者那样,近在咫尺,迫在眉睫,数不清的艰难问题还等着我们攻克。

我们遭遇的第一个问题就是计算机的运算能力。

细胞虽小,却异常复杂,神经元尤其如此。在最微小的尺度上,一个神经元有成千上万个突触与其它细胞连接,释放或接受神经递质,识别数百种独立的活动,随后发出高速传导的神经兴奋,在整个大脑内激起复杂而不确定的反馈,有些突触还可以直接向脑脊液中释放递质和激素,在全身范围内引发更大尺度的反应——时至今日,人类发现细胞已近400年,即便动用最强大的超级计算机,也只是静态地构建出了一个突触的微观结构,真要模拟它完整的活动还无能为力——而人脑大约有860亿个神经元。

当然,神经科学与计算机科学的交叉处也的确有了些令人瞩目的成果,比如为人称道的,我们标记了隐杆秀丽线虫(Caenorhabditis elegans)302个神经元的连接方式,大约在2014构建了一个“开放蠕虫”的项目,试图用计算机模拟出一个等效于实体的虚拟线虫——但这个项目才刚刚起步,尚未收获成果,而且这个研究对象也是出奇的简单:它雌雄同体,全身固定有959个细胞,每个细胞的行为都专一且固定,神经活动非常单调,我们因此得以详细地观察它,用现在的手段模拟它们。

但是如果因为这一点星光就以为破晓来临,以为秀丽线虫的神经节与人类的大脑只是神经元的数目有所差异,只要计算速度够快就能实现质的飞跃——那就未免太天真了。

我们还会遇到动力学参数的壁垒。

如我们提醒过的,以现在的技术,我们还不能模拟神经元的完整活动,让它们在虚拟世界里自主地运动起来。只是在这个项目中,我们既然已经知道了线虫神经的连接方式,就能人为地给这些连接赋予动力学的参数,让这些虚拟神经元活动起来,逼真地模拟一条线虫。就像做题虽然不会,但是拿着答案倒推,也能猜个八九不离十——所以我们称这种做法是自底向上。

然而在目前阶段,不但我们还是个相当差的学生,离开了答案就寸步难行;而且我们遇到的问题也是空前的难题,根本没有现成的答案。

线虫的神经与人类的大脑,就像口中呼气和超级台风,它们之间绝不只是数量的差异。当基本单元通过种种联系形成复杂的系统,就会在更大的尺度上展现出新的结构。我们很早就对小尺度上的流体运动有了清晰的认识,但这并不代表我们可以从中推导出台风的运动规律。

首先的,线虫的个体差异极小,不同个体的细胞排列方式完全一样,所以作为一种全身透明的实验动物,我们很早就弄清楚了它们神经连接的方式。但人脑完全不是这样,我们拥有数量巨大的神经元,个体差异很大,而且可塑性极强,这令每个人大脑内的神经元连接方式都不一样——换句话说,一个具体的神经元怎样连接不重要,重要的是数量巨大的神经元如何组织成一个复杂的机体。

然而1个神经元、10个神经元、100个神经元、1000个神经元……每增加一个数量级,神经元的活动都会涌现出新的运动规律,从最小层面上神经元处理兴奋的方式,到不同递质的通路的组合方式,到处理不同信息的细胞构成功能模块,到大脑中不同功能区域的协作方式,都是我们必须面对的难题,虽然这些动力学的研究也正在热火朝天的研究中,但这样的研究不可能达到“指数上升”的速度,我们重建人脑的进程也就不能达到指数上升的速度。

所以先不论计算机科学能否一马平川地进步下去,即便计算机运算速度真的能指数上升,也无法在可以预见迅速地模拟出一个人脑:在神经科学和脑科学臻于高度成熟之前,大脑永远是一个黑盒子,我们要想知道大脑在具体的智力活动中在不同层面各自发生了怎样的事情,还困难重重。而且更加现实的情况是,随着我们对人脑的认识逐渐扩大,我们会发现越来越多的新问题。

我们知道的越多,就越发现自己无知,然而糟糕的是,真正的难题还在前方虎视眈眈——我们需要新的计算机原理。

必须意识到,在能否实现“智力”这个巨大的问题上,计算机的运算速度并不是决定性的。以当今的动物界而论,非洲象、长肢领航鲸,它们的大脑都比人的更重,神经元的数量也更多,为何偏偏缺乏智力?在相同的解剖基础上尚且如此,原理完全不同的电路元件,又该如何?

电路元件以金属和半导体为元件,获得了接近光速的信号传递速度,这比起神经元的冲动的确快多了,但也单调多了。电路元件的任何一次反应都只能得到固定的结果,只能在和、或、且的基础上展开一阶逻辑演算,今天,以及未来可以预见的一切计算机程序,都是不同复杂程度的一阶逻辑演算。

“一阶逻辑”已经非常强大,给今天的人类带来了整个21世纪的信息时代,但它只能从几个初始数据开始,根据预存的指令步步推导,绝不越雷池一步。这给计算机带来了那种可贵的可靠性,但也令它失去了更可贵的抽象、推理、创造——我们必须能够定义谓词的二阶和高阶逻辑。

举个例子,面对“a+b”这样的命令,计算机只会按照加法的规则,把a和b加起来,但是对于具有二阶逻辑的人,我们还会思考加法的意义,询问“加法是怎样一种运算?”,接着,我们还会能在三阶逻辑中思考“运算”的意义,询问“怎样规定一类运算?”,进一步的,我们又会在四阶逻辑中思考“规定”的意义,询问“数学上什么样的行为称得上规定?”。

这样的追问可以无穷地回溯下去,理论上,人类的思维可以实现“无穷高阶逻辑”,我们已经在整个哲学史上持续不断地展现了这种能力。对于普通人,我们也可以尝试一个计算机无论如何做不到的思维游戏:随便思考一件事,然后思考“我正在思考这件事”,然后思考“我正在思考‘我正在思考这件事’”,然后思考‘我正在思考“我正在思考‘我正在思考这件事’”’……虽然很费脑子,但我们在理论上也可以无穷地递归下去。

是的,如今所有的计算机都是一阶逻辑,或许在某些实验室里还有二阶逻辑的尝试,但无论怎样,高阶逻辑问题不能规约成低阶逻辑——我们绝不能用加法本身说明什么是加法,这就好像在电视机上做电视机的广告。

也就是说,我们即便动用了空前的计算能力,以不可思议的工作量找到了大脑中的每一个参数,但只要计算机原理不变,就是在用低阶逻辑模拟高阶逻辑——这在数学上不可能,程序员们会发现某些关键的参数无法定义,那个辛苦模拟出来的大脑仍然是个弱人工智能。

这是一个尖锐的问题,即便在另外一些规划中的道路上,用进化算法也好,用其它方式建模也好,它都会横亘在我们的前途中。我们需要一种革命性的计算机,能够实现高阶逻辑的演算,但是在所有已知的事物中,就只有大脑能做到这件事,这就带来一种新的困境:要模拟大脑需要新的计算机,要研究新的计算机就要深入了解大脑。这当然不是无法解决的问题,就好像制造新的机器需要新的材料,合成新的材料需要新的机器,我们在科技进步史上已经邂逅了无数次,没有理由认为我们会败给这一次,但也要做好思想准备,因为这将是一条漫长的路。

这样或者那样的问题会接踵而至,人工智能作为这时代最复杂的应用科学,没有理由认为我们能以逸待劳地只凭计算机科学的进步就让一切问题迎刃而解,更何况退一万步,我们还有一个更加现实的问题要面对。

【伦理障碍】

对与任何革命性的新技术,伦理都是最现实的问题,我们此前目睹了避孕措施对伦理的冲击,就以为伦理在技术面前不堪一击,这就未免太低估了伦理的力量,像“知情权”这样毫无意义的概念被煽动家利用起来蛊惑人心,都可以在食品安全领域掀起巨大的波澜,那么从今天开始数十年乃至上百年对人工智能的担忧积累起来,无论合理还是不合理,都会形成强大的伦理氛围,阻遏强人工智能的研究。

先不论“人工智能灭绝人类”这样惊悚的事情,就以最现实的问题来说,公众一定会关心强人工智能是否具有情感,是不是有了心脏的铁皮人,然而这却是强人工智能的定义中不曾提及的问题。

与其它意识活动不同,人类丰富而细腻的感情是人类作为一种社会动物,协调群体关系时的进化产物,并非智力的必需品。一个强人工智能未必真的具备这些特质,但他一定可以理解这种行为:想象成一个人先天性地没有任何感情,但以细致的观察和精湛的模仿成为了一个无可挑剔的表演家,在舞台上无论是哭是笑,心中都绝无一丝涟漪,犹如用肢体和表情肌完成了最复杂的体操——这大约就是电影《机械姬》中的情形。

长期以来,感情被认为是自由意志最关键的特质,所以我们不得不想象在那样的未来,分辨强人工智能是真的拥有感情还是在逢场作戏,抑或这两种情况并没有区别,都将会成为人工智能领域最重大的课题,也是人类面对自己时最深刻的拷问——无论哪一种结局成真,都意味着一个旧伦理的世界不复存在:我们要不要承认它是一个人?进一步的,“他”是否适用实体法,可以拥有最基本的人权?我们还能不能把“他”囚禁在实验室里?

我们接着就会设想,强人工智能如何利用自己的感情获取人类的信任,争取平等的对待,争取公民权的运动。强人工智能的感情或许只是一层伪装,但人类心底那种与生俱来的同情和善良却是毫无争议的事实,在这样的未来图景之下,强人工智能的研究几乎必然招致严格的限制,就像我们如今对待克隆技术时的做法:我们在上个世纪就掌握了克隆哺乳动物的技巧,但是在可以预见的未来里,这个世界上都不会有克隆人降世。

或者更武断地说,无论技术是否成熟,我们都不会允许一个拥有完全心智的强人工智能轻易问世,我们可能会在全球最重要的实验室里有限额地研发几个被严重削弱的强人工智能,成为认知科学和计算机科学的珍惜样本,如果要想象强人工智能诞生在民用领域,就像《机械公敌》或者《西部世界》那样,就未免不切实际了。

最后,我们要再次反省一下预测未来这件事:一个平静的社会大概激不起人们什么兴趣,所以我们总是在变革的浪潮中“高瞻远瞩”,但是我们忘了,科学革命或许加快了人类探索和改变世界的速度,但人类的认知过程从来都不是一帆风顺。旁观者赞美收获时的成就,却很少理会耕耘时的艰辛,盲目乐观是他们永远无法摆脱的缺陷。

手机能被黒客入侵吗

黑客是在联网的基础上破坏或者修改,如果没有联网你的电脑永远不会被入侵

手机当然可以被入侵,因为手机信号的发放什么的,都有总的联网机构

像我们的通话时间或者通话内容,基本都是有记录的。只是我们看不到罢了,如果黑客入侵那个信号总部,可以更改你的通话记录时间什么的,当然能做到这一步的,已经是世界巅峰级别的黑客了。所以,这个可能性很小,不过手机中病毒的可能性很大。。。

人工智能会不会背叛人类?人类创造人工智能是错的吗?

自工业革命以来,人类创造出了许多强大的机械,发展出了现在规模庞大的城市和先进的机械文明,尤其是人工智能的出现,使得人类愈加强大,但包括霍金在内的很多科学家都对此非常担忧,人工智能与普通的机械有着本质的不同,机械永远处于人类的控制范围内,但人工智能则有着“背叛”的可能性!

著名的电影《黑客帝国》就描述了这一场景,人类在与人工智能的战争中落败,最终被机器人圈养,从人类身上不断地榨取能量!这是何等可怕的场景,如果人类继续研发人工智能,会不会有一天也将变成现实版的《黑客帝国》?

当然,以人类现在研发出的人工智能而言,完全在人类的控制范围内,但是我们 知道,智能生命拥有共同的特性,那就是进化和思索,他们会根据现状有目的性地强化自身。而且,未来随着大量人工智能的出现,很有可能会出现人工智能之间的交流,这样会加速人工智能自身的发展!

相比于人类而言,人工智能有许多优势,它们拥有钢铁身躯,只要有能量,他们就能无休止地运动下去,而人类脆弱的身体显然不是人工智能的对手,更何况人类还需要休息来补充体力,所以如果人工智能一旦背叛,人类很可能不是它们的对手!

很多时候,人工智能决策可能直接事关生死,比如在战场上使用人工智能系统,虽然目前还没有证据表明是否有国家使用了这种“致命性自主武器”,但现阶段的人工智能确实已经具备了装备这种武器的可能性,甚至说未来战场上必然会出现人工智能协同人类部队作战的场面,一旦给人工智能武器和发展进化的空间,也就是从某种意义上将人类的未来依托于它们的“忠诚”上!

那么我们就这样放弃人工智能吗?这显然是不可能的,我们的现实生活已经与人工智能绑定在了一起,让人类抛弃现在安逸的生活是无法想象的。那么有没有办法规避人工智能带来的风险呢?

事实上,很多科学家已经发现了人工智能带来的隐患,有些科学家提出对人工智能技术的使用进行监管。一个似乎正在被接受的办法是,如果人工智能软件做出了影响你的决定,那么你应该有权知道这个决定是如何做出的,使用了哪些和你有关的数据,标准是什么。

0条大神的评论

发表评论