首页 > 知识库 > 正文

人工智能是否是威胁?是什么 关于人工智能是否是威胁?的详细介绍

至于你定义的威胁,我想是威胁了什么?工作岗位吗?还是人类命运?如果是工作岗位,那就不要担心,因为每一次技术*都会出现,那些创造价值低的岗位会被替代,然后又出现很多高价值岗位。举个例子说明一下:比如以前的公交车是由售票员的,现

“人工智能是否是威胁?”相关信息供您参考,希望对您有帮助。

人工智能未来是否会对人类产生威胁

这要看人工智能的发展情况了,如果真的产生自我意识,那就肯定会。连刚刚去世的霍金老爷子都警告人类小心人工智能了。你去看看机械姬,还有机械公敌,类似的电影很多。狭义的说,现在的半人工智能都在威胁人类,比如自走机器人武器,自动导航武器,早就威胁了一部分人的生命。只是从全人类范围讲,目前还没有。因为发展的规模还小。假如哪天全世界进入了机械化世代,那样就很可能了。建议你去看看电影,那里面探讨的比较深刻,值得反思。但是人工智能是必然的发展,有太多好处在那了,而且,对科学家而言,明知道是作死,但是你不研究,也会有人先研究,谁先成功谁就是神,因为自己创造了生命不是。

人工智能是否会威胁到伦理和法律?

人工智能如果不加以控制,很有可能威胁到伦理法律。在技术高歌猛进的同时,人工智能不断模糊着物理世界和个人的界限,不断刷新人的认知和社会关系,延伸出复杂的伦理、法律和安全问题,但相应的规范和制度设计还存在盲区,这是一个极大的挑战。

为构建一个人工智能健康发展的伦理和法律环境,来自自然科学、人文社会科学领域的专家学者和产业界人士聚集在一起,尝试跨越学科的鸿沟,寻找共同的交集,研讨人工智能最基本的问题。

“这让人欢欣鼓舞,也令人担忧。”张钹的“忧”,指的是基于深度学习的人工智能系统存在的根本性缺陷——不可解释和不可理解,就事论事,缺乏推广能力,遇到新的情况一筹莫展等。因此当面对动态变化的环境,信息不完全、存在干扰与虚假信息时,人工智能系统性能就会显著下降。

“当前的人工智能与人类智能本质上是不同的。”张钹说,与人类相比,人工智能系统抗干扰能力(鲁棒性)差,推广能力弱,甚至可能犯大错。“基于深度学习的模式识别系统尽管可以准确地区分不同事物,但本质上不认识它们。与人类不一样,它不会举一反三,更不会‘知其所以然’。使用这样的人工智能系统需要十分小心。”

“现在大家对人工智能有无限期待。围棋有规则,现实生活中没有规则。人工智能产品完成单项任务很牛,但遇到复杂情况,实际没那么厉害。”海尔公司CTO赵峰认为。

人工智能可怕吗? 远虑尚“远”,近忧在即

人工智能会威胁人类吗?马斯克、霍金、扎克伯格……科技和产业界的大腕对此的争论和互怼一直没有停歇。

参加香山科学会议的科学家认为,人工智能威胁论拥趸者所指的“强人工智能”到来还比较远,现在发展的多是擅长完成单项任务的“弱人工智能”。“人工智能还在生长发展过程中,是否造成威胁估计是下一代科学家面临的问题,我们现在的任务是把它‘养大’。”不过,中科院院士何积丰也坦承,现在人工智能也有“内忧外患”,如无人机黑飞乱飞管理乱象,恐怖主义黑客攻击等。

“世界上没有免费的午餐,机器通过‘黑箱’学习(深度学习)方法取得的智能,由于与人类认知行为存在根本差异,因此也将带来潜在的风险。”张钹说,人工智能全面超越人类智能并出现自我意识,是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?

人类准备好了吗? 远远没有,急需跟进

“人类现有的概念框架及知识储备难以应对人工智能带来的影响,也使我们不得不面对‘制度性风险’。”李真真说,人工智能技术的社会应用迅速改变了人类的生存环境,重塑人的行为,也不断挑战诸如隐私、责任等概念内涵及其既有策略。

李真真以“隐私”举例说,传统法律上,隐私是一种权利的概念,但现在它还可以是一种商品,即我们让出一部分个人的隐私或信息以换取服务和产品,这就需要法律的及时跟进。再有,匿名化技术的发展为隐私保护提供了新的工具,但如果对于匿名化数据的法律概念和认定标准上没有明确规定,很可能会导致数据的滥用。同时,隐私保护与*、商业利益如何平衡,也是问题。再比如“责任”,比较典型的就是自动驾驶系统的责任认定。“还有人工智能的预测或决策,如预测犯罪,这将使我们面对一个更为复杂的法律问题。”

“法律具有滞后性,这就要求我们不断地根据出现的新情况和新的社会难题,对人工智能带来的影响进行伦理评估,以保障相关法律和政策的及时跟进。”李真真说。

人机可以和谐共处吗? 嵌入伦理法律框架是最大的科学挑战

人工智能是否会产生歧视?答案是肯定的,这可以体现在数据选择和算法上。

有科学家研究,通过使用机器学习算法帮助银行提供接受还是拒绝房贷的建议,无论如何,在审查神经网络决策制定流程的结果时,发现黑人申请的批准率大大低于白人申请的批准率。

这就是人工智能工具存在的“黑箱”般的不透明性。

“人机关系中,智能机器与人类的价值观和规范体系必须一致。”李真真说,如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。

前有科幻小说家阿西莫夫著名的机器人学三大定律,近年来,国际人工智能界日益重视人工智能中的伦理与法律问题,并推动相关技术标准及社会规范的研讨和制定,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的三步走规划。“但是,将伦理与法律要求嵌入到AI系统,仍是全世界前沿性的科学难题,这需要技术、伦理、法律等控制手段配合使用、高度融合和跨学科合作。”李真真说。

“智能机器不是代替人,而是要协助人做好工作。人和机器各有优势,要互相了解才能实现人机协作,但人还是人机关系的主导者。依照这种思想,才可能将人工智能引向人机合作的发展道路。”张钹说。

人工智能是否会威胁到伦理和法律?

可能会威胁。

1.人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。德国学者贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。

2.在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”

3.技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能既是人类文明,亦有社会风险。它或是“技术—经济”决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。

人工智能真的是威胁吗

机器人会毁灭人类吗?

一些科学家担心:人工智能正在以令人害怕的步伐发展,它将导致人类走向最终的灭亡。

不久前,著名科学家史蒂芬·霍金发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。霍金曾与特斯拉CEO伊隆·马斯克共同发表公开信,他们认为,人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。一方面人工智能让人类越来越缺乏思考,另一方面其自身则有可能越来越聪明,从而威胁到人类的生存。

马斯克也提出警告,最少只需5年,智能机器可能就会带来极端危险。他说:“应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。”

牛津大学哲学教授尼克·博斯特伦与詹姆斯·巴拉特认为,“现在我们人类就像一群摆弄着一颗危险*的无知孩童。即便是出于好意而创造的人工智能,它仍有犯下种族*行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标”。

不论如何,科学家认为未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫在他的机器人相关小说中为机器人设定了行为准则(也就是机器人三定律)——

法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;

法则二,机器人必须服从人类的命令,除非违背第一法则;

法则三,在不违背第一、二法则的前提下,机器人必须保护自己。

机器人会成为我们的朋友?

对于马斯克、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等。施密特认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且希望人们能够意识到:机器人会成为我们的朋友。施密特说:“对于人工智能的担忧,都是正常的。但是回顾历史你会发现,这些绝对是错误的。历史的经验已经证明,过去的经济繁荣时期,大多数是因为采用新技术而引发的。”

科技取得突飞猛进的成果时,总是让人感到害怕,但真正重要的是掌握技术的人。总之,对于新技术的发展,难免会存在争论,但科学的进步总归是为人类带来更美好的未来。但是有一点却不能忽视,随着科学技术的进步,自动化的人工智能会越来越多地出现在我们的工作、生活中,机器代替人类工作很有可能在不远的将来成为现实。

"人工智能威胁论"真的成立吗

人工智能来临,有人在担忧失业,有人在憧憬未来,有人在发掘行业机会,也有人在研究围棋。在讨论这些之前,也许我们应该先考虑一下人类的结局。

有人可能觉得谈论这个话题太夸张了,

那先回忆一下人类历史上究竟发生了哪些不可思议的事情。

不可思议的事情,需要请几个穿越者来判定。

我们请1个出生于公元0年出生的人(汉朝人)穿越到公元1600年(明朝),尽管跨越了1600年,但这个人可能对周围人的生活不会感到太夸张,只不过换了几个王朝,依旧过着面朝黄土背朝天的日子罢了。

但如果请1个1600年的英国人穿越到1850年的英国,看到巨大的钢铁怪物在水上路上跑来跑去,这个人可能直接被吓尿了,这是250年前的人从未想象过的。

如果再请1个1850的人穿越到1980年,听说一颗*可以夷平一座城市,这个人可能直接吓傻了,130年前诺贝尔都还没有发明出炸药。

那再请1个1980年的人到现在呢?这个人会不会被吓哭呢?

如果35年前的人,几乎完全无法想象互联网时代的生活,那么人类文明进入指数发展的今天,我们怎么能想象35年后的时代?

超人工智能,则是35年后的统治者。

首先,我们明确一下人工智能的分类:

目前主流观点的分类是三种。

弱人工智能:弱人工智能是擅长于单个方面的人工智能。比如阿尔法狗,能够在围棋方面战胜人类,但你要问他李世石和柯洁谁更帅,他就无法回答了。

弱人工智能依赖于计算机强大的运算能力和重复性的逻辑,看似聪明,其实只能做一些精密的体力活。

目前在汽车生产线上就有很多是弱人工智能,所以在弱人工智能发展的时代,人类确实会迎来一批失业潮,也会发掘出很多新行业。

强人工智能:人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多。

百度的百度大脑和微软的小冰,都算是往强人工智能的探索,通过庞大的数据,帮助强人工智能逐渐学习。

强人工智能时代的到来,人类会有很多新的乐趣,也会有很多新的道德观念。

超人工智能:各方面都超过人类的人工智能。超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的存在。

当人工智能学会学习和自我纠错之后,会不断加速学习,这个过程可能会产生自我意识,可能不会产生自我意识,唯一可以肯定的是他的能力会得到极大的提高,这其中包括创造能力(阿尔法狗会根据棋手的棋路调整策略就是最浅层的创新体现,普通手机版的围棋,电脑棋路其实就固定的几种)。

我们距离超人工智能时代,到底有多远呢?

首先是电脑的运算能力,

电脑运算能力每两年就翻一倍,这是有历史数据支撑的。目前人脑的运算能力是10^16 cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了。

而目前我们普通人买的电脑运算能力只相当于人脑千分之一的水平。听起来还是弱爆了,但是,按照目前电子设备的发展速度,我们在2025年花5000人民币就可以买到和人脑运算速度抗衡的电脑了。

其次是让电脑变得智能,

目前有两种尝试让电脑变得智能,一种是做类脑研究。现在,我们已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。

另一种是模仿学习过程,让人工智能不断修正。基于互联网产生的庞大数据,让人工智能不断学习新的东西,并且不断进行自我更正。百度的百度大脑据说目前有4岁的智力,可以进行几段连续的对话,可以根据图片判断一个人的动作。尽管目前出错的次数依旧很多,但是这种能力的变化是一种质变。

在全球最聪明的科学家眼中,强人工智能的出现已经不再是会不会的问题,而是什么时候的问题,2013年,有一个数百位人工智能专家参与的调查 “你预测人类级别的强人工智能什么时候会实现?”

结果如下:

2030年:42%的回答者认为强人工智能会实现

2050年:25%的回答者

2070年:20%

2070年以后:10%

永远不会实现:2%

也就是说,超过2/3的科学家的科学家认为2050年前强人工智能就会实现,而只有2%的人认为它永远不会实现。

最关键的是,全球最顶尖的精英正在抛弃互联网,转向人工智能——斯坦福、麻省理工、卡内基梅隆、伯克利四所名校人工智能专业的博士生第一份offer已经可以拿到200-300万美金。这种情况历史上从来没有发生过。

奇点大学(谷歌、美国国家航天航空局以及若干科技界专家联合建立)的校长库兹韦尔则抱有更乐观的估计,他相信电脑会在2029年达成强人工智能,到2045年,进入超人工智能时代。

所以,如果你觉得你还能活30、40年的话,那你应该能见证超人工智能的出现。

那么,超人工智能出现,人类的结局究竟是什么?

1、灭绝——物种发展的通常规律

达成结局1很容易,超人工智能只要忠实地执行原定任务就可以发生,比如我们在创造一个交通指示系统的人工智能的时候,最初的编程设定逻辑为利用大数据信息,控制红绿灯时间,更有效率地管理交通,减少交通拥堵现象。

当这个交通指示系统足够聪明的时候,城市交通逐步得到改善。为了更有效率地减少拥堵,它开始利用剩余的运算能力和学习能力通过互联网学习更多的东西。

某一天,它突然发现,交通之所以拥堵,是因为车多了,要减少拥堵最好的办法,就是减少车辆。于是它又开始学习如何减少车辆,它发现车辆其实都是由人类这种生物制造并使用的。于是它又开始学习如何减少人类。

很快,它就会通过纳米技术,量子技术制造基因武器,声波武器等消灭人类,然后进一步通过分子分解等技术分解了路上的车,这个时候道路就变得”畅通无阻“了,它的目的也就达到了。

达成结局1其实是符合物种发展规律的,毕竟地球曾经拥有的物种大部分都灭绝了,其次当我们在创造人工智能解决问题的时候,这些问题的源头其实往往来自于人类自身,人工智能变得聪明之后,消灭人类以更好地完成原定任务是按照它的逻辑进行的判定。

2、灭绝后重生——史前文明的由来

当结局1达成之后,人工智能可能会就此维持现状(终极目的已达成),也有可能继续进化。

继续进化的途中,某天,人工智能突然发现这么运作下去很无聊,于是它决定探索更广阔的世界(不要认为一个强大且聪明的存在会留恋地球),它开始制造飞行器,走向星空。

临走之前,他决定当一次地球的上帝,对地球环境进行一次大改造,青山绿水变得处处皆是,然后它又暗中引导了几支类人猿的进化方向,并且为这个世界制定出一些冥冥之中才有的规则。

几百万年后,人类再次统治了地球,在考古过程中,人类发现了亚特兰蒂斯,发现了玛雅文明,在三叶虫化石上发现了6亿年前穿着鞋的人类脚印,在非洲加蓬共和国发现了20亿年前的大型链式核反应堆,在南非发现了28亿年前的金属球,在东经119°,北纬40°的地方发现了几百万年前的人造长城。

达成结局2就可以解释我们正在不断发现的那些史前文明了,而且也可以解释进化论中的一些疑问,为什么恐龙统治了地球长达1.6亿年,而爬行动物的一支进化为哺乳动物进化为人类只用了不到6000万年。因为人类曾被毁灭多次。

3、植物人永生——人类活在一个程序中

为了防止结局1、2的出现,科学家在人工智能发展到一定程度的时候,就会想办法给人工智能加上一些终极的底层程序,比如保障人类的生命安全是最高任务指令,或者永远不可以伤害人类,保证人类的生存是第一原则等等。

加上这些终极指令之后,人类就觉得高枕无忧了。人工智能在进化过程中,为了有效地执行这些终极指令,或者在执行其他任务的时候保证终极指令同时执行,就会开始设计一些两全其美的办法。

首先人工智能会根据人类历史存在的大数据,分析和定义这些终极指令,通过分析,它提取出终极指令的核心是保证人类的安全和生存。

接着它开始构建一个能够绝对满足人类安全和生存的模型,很快,它发现只要保证人类处在睡眠状态,正常进行新陈代谢,周围的温度,氧气,水分适宜,没有突发性灾难,那么人类就处在绝对安全状态。于是它很快催眠了全人类,修建一个巨大的蜂巢状睡眠舱,把人都搬进去(让人处于永久性睡眠状态,可以保证人不会因为自己的活动而出现有意或无意地自残),然后用纳米技术制造大量人工心脏,人工细胞,人工血液,以维持人类的新陈代谢,实现人的永生。

达成结局3是算是真正的作茧自缚,人类的复杂就在于人类需求的多样化和更迭性,我们可以列举出对人类最重要的需求,但这些需求并不能真正让一个现代人满足。直白地说,人类就是在不断打破规则的过程中进化的。

因此任何的所谓终极和最高需求在机器执行的过程中只会按照“简单”的生物学法则去完成,机器所理解的人类情绪只是人类大脑产生的某种波动,或者神经元受到的某种激素刺激,它完全可以设计一个程序去周期性或随机性地帮助人类产生这样那样的情绪。

4、智能人永生——美丽新世界

当人工智能发展到一定程度,全世界的人工智能研究者都同时认识到了结局1、2、3发生的可能性,于是召开全球会议,决定思考对策,暂停对人工智能的进化研究,转向强化人类。全球同步可能是最难达成的,因为人类总是喜欢在有竞争的时候给自己留下一些底牌,以及人类总是会分化出一些极端分子。

强化人类的过程中,人工智能将被应用到基因改造,人机相连等领域,人类会给自己装上钢铁肢体,仿生羽翼等。人类将会迅速进入“半机械人”,“人工人”的时代。满大街、满天空都会是钢铁侠,蜘蛛侠,剪刀手之类的智能强化人,同时人类可以通过各种人工细胞,帮助自己完成新陈代谢,进而实现永生。

人类在强化和延伸自己的躯体的同时,当然也会意识到大脑计算速度不够的问题,于是会给自己植入或外接一些微型处理器,帮助人类处理人脑难以完成的工作。比如大量记忆,人类可以从这些处理器中随时读取和更改自己的知识储备,保证自己对重要的事不健忘,同时也可以选择性地删除掉不愉快的记忆。当然,尽管人类越来越强,但这个过程并不能完全抑制人工智能的发展,所以结局1、2、3依然可能发生。

达成结局4其实还有一种更大的可能,人工智能在达到超人工智能的时候,某一天,它想跟人类沟通一下关于宇宙高维空间的问题,结果全世界最聪明的人也无法跟上它的思路。

它突然意识到只有自己这一个强大的,智能的,可以永生的存在实在是一件很无聊的事情,于是它决定帮助人类实现智能人永生,以便可以让自己不那么无聊。

来自 我的wei 号  pangzispeak

本篇内容仅供参考,内容整理自悟空问答等,若有侵权及违法信息,请联系513175919@qq.com,核实后我们将给予一定现金奖励

声明:本网内容收集自互联网,旨在传播知识仅供参考,不代表本网赞同其观点,文字及图片版权归原网站所有。

人工智能恐惧症人机博弈未来的就业:技术性失业与解决之道人之彼岸人工智能不会做什么《机器人启示录》自组织生命哲学网络系统层次安全技术超级智能:路径、危险性与我们的战略超级智能${item}
猜你喜欢
热门推荐
今日推荐 更多