您的位置:主页 > 公告动态 > 投资资讯 > 投资资讯

为什么人工智能会解救国际?

硅谷*风投组织a16z的创始人之一马克·安德森近来发文为AI发声。面对ChatGPT为代表的生成式AI在全球商场日新月异,包含一些*AI学者在内都对AI的“过快开展”表明忧虑,乃至有“AI末日论”在传达。马克·安德森作为一个成功的接连创业者和投资人,从前创立了全球*个可用的浏览器Netscape Navigator,也是Facebook最早的投资人,他是一个达观主义者,从前喊出了”软件即将吞噬国际“的宣言。

在这一次的AI浪潮中,他依然表达了达观的情绪,他以为:

人工智能有巨大的潜力改进日子和推进经济添加,在各个范畴发挥作用,如科学、医疗、艺术等,可以扩展人类的才能并产日子跃影响。

关于人工智能的忧虑大多是依据误解和夸张的观念,人工智能并不会消除国际,相反,它或许解救国际,为咱们发明更好的未来。

需求进行敞开、通明、理性的评论,让全部利益相关者参加决议计划,以处理人工智能的危险和规制问题,避免过度约束和检查。虽然人工智能或许使坏人更简略做坏事,但经过法令和合法运用来应对这一危险,而不是阻挠人工智能的开展。

大型AI公司和创业公司应被鼓舞开展人工智能,但不该经过过错了解危险来取得政府的维护,需求在公平竞赛的环境中运作。

开源AI应被答应自在传达,促进敞开立异和学习,政府和私营部门应协作运用人工智能处理潜在的危险问题。

以下是安德森《Why AI Will Save The World》经过精简的修改版别,欢迎阅览:

人工智能年代现已到来,人们对此感到慌张。

走运的是,我在这里带来了好消息:人工智能不会消除国际,实践上或许会解救国际。

首要,对人工智能的简略描绘:人工智能是数学和软件代码的运用,教授计算机怎么了解、归纳和产生常识,办法相似于人类。人工智能是像其他任何程序相同的计算机程序 — 它运转,承受输入,处理并产生输出。人工智能的输出在比方编程、医学、法令以及构思艺术等许多范畴都很有用。人工智能像其他任何技能相同,由人类全部并由人类操控。

对人工智能不是什么的简略描绘:并不是电影中那样会忽然活过来并决议杀死人类或许消除全部的杀手软件和机器人。

对人工智能或许是什么的更简略的描绘:一种使咱们关怀的全部变得更好的办法。

1、为什么人工智能可以使咱们关怀的全部变得更好?

人类智能在广泛的日子范畴中都使得作业变得更好。智能是咱们用来发明今日国际的杠杆,如科学、技能、数学等。人工智能为咱们供给了深入进步人类智能的时机,使全部这些智能的作用变得更好,更快。

在新的人工智能年代,每个孩子将具有一个无限耐性、无限怜惜、无限常识的人工智能导师。每个人都将有一个相似的人工智能帮手,协助应对日子中的全部时机和应战。每个科学家、艺术家、工程师等将具有一个扩展他们范畴效果的人工智能同伴。*的决议计划才能也将得到进步,产生巨大的扩展作用。

人工智能将推进经济添加、新职业的发明、新作业的发明。科学打破和新技能将大幅度扩展,因为人工智能协助咱们进一步解码自然法则。构思艺术将进入黄金年代,因为得到了人工智能增强的艺术家可以更快地、更大规划地完结他们的愿景。战役也将得到改进,下降战时逝世率。

人工智能将使咱们可以承受新的应战,这些应战在没有人工智能的状况下是不或许应对的,如治好全部疾病和完结星际游览。人工智能的人性化质量也被轻视了,它可以使那些技能技能短缺的人们有自在发明和共享他们的艺术主意的才能,还有协助人们应对窘境并供给更有怜惜心的医疗谈天机器人。

人工智能的开发和传达不只是危险,更是咱们对自己、对咱们的孩子、对咱们的未来的品德责任。咱们应该在人工智能的国际中日子得更好,现在咱们可以了。

那么为什么会呈现惊惧?

当时关于人工智能的评论充溢了惊骇与偏执,原因是人类的竞赛直觉。但这种惊骇在大多数状况下是过错的。咱们日子在一个平和的国际,全部相互促进。咱们需求更活跃、开通地看待人工智能,看到它的潜力。

人工智能将带来深远的改动,改进日子、改动国际了解。咱们应警觉潜在问题,负责任地研讨人工智能,保证活跃影响。人工智能能处理杂乱问题,比方气候改动、疾病、贫穷、战役、认知约束。

关于人工智能危险与规制的评论,有"浸信者"与"私酒贩"。"浸信者"是真挚关怀人工智能危险的人,他们或许来自学术界、科技品德范畴或大众利益集团。"私酒贩"或许从规制中取得经济利益,例如大型科技公司CEO或有权利、影响力的人。他们或许将新的人工智能规制视为竞赛壁垒,维护商场位置或阻挠竞赛。

咱们的方针是在敞开、通明环境中,公平、理性评价各方观念。咱们需了解忧虑、考虑提议、探究处理方案,而非简略贴标签。"浸信者"的忧虑不能被忽视,人工智能的确存在潜在危险。"私酒贩"或许提出有价值观念,如运用规制促进人工智能安全、负责任运用。

咱们需求更敞开、容纳、理性地对话环境,让全部利益相关者参加决议计划,而非少数人主导。

2、AI危险#1:AI会消除咱们吗?

最原始的AI末日危险便是AI决议消除人类。咱们的文明深深根植于这种由咱们发明的科技或许会兴起并炸毁咱们的惊骇。《普罗米修斯神话》、《弗兰肯斯坦》以及《终结者》等各个版别的故事都反映出这个观念。咱们应该理性分析新科技的潜在危险,因为虽然“火”可以被用来消除,但它也是现代文明的根底。

我以为AI会消除人类的观念是一个范畴过错。AI不是经过进化竞赛的生物,而是由人类构建、具有、运用和操控的数学和代码。信赖AI会开展出自我意识并企图消除咱们,几乎就像迷信。AI并非有生命的实体,它无法比烤面包机更具有生命力。

但是,一些实在信赖杀人AI的人,被称为洗礼者,现已取得了许多的媒体重视。他们建议对AI施加极点的约束,乃至以为咱们有必要采纳预防性态度,或许需求采纳许多的物理暴力和逝世以避免存在性危险。对此,我质疑他们的动机,因为他们的态度过于非科学和极点。

具体来说,我以为有三件事正在产生:一些人过于夸张自己作业的重要性,为罪恶赚取荣誉;有的人被付钱成为末日论者,他们的声明应该慎重对待;加利福尼亚有一些被教派招引的边沿人物和一些实践的职业专家,他们把“AI危险”开展成一个教派。

实践上,这种末日论教派并不新鲜。西方有耐久的千禧年末日论教派传统,AI危险教派就有全部的千禧年末日论教派的特征。这些信仰者,不管真挚或不真挚、理性或非理性,都需求得到恰当的回应,因为他们或许会激起有害行为。了解他们的动机和他们地点的社会环境,可以协助咱们找到适宜的回应办法。

3、AI危险#2:AI会销毁咱们的社会吗?

AI危险的另一种观念提出,AI有或许经过产生有害的输出对社会构成深远的影响。此类观念建议AI的危险或许源于社会影响,而非实践的生理损伤。AI的社会危险首要表现在“AI对齐”,即AI应与人类价值观相对齐,但究竟应对齐哪一种价值观,便是一个杂乱的问题。

此类危险的问题在交际媒体的"信赖与安全"战役中现已有过表现。交际媒体多年来一向遭到来自政府、活动家等压力,要求检查和约束各种内容。而相似的重视点也在AI范畴呈现,人们开端重视AI的对齐问题。 

交际媒体检查的经历告知咱们,一方面,言辞自在并不是*的。任何生成或促进内容的技能渠道都会有某种约束。另一方面,检查一旦开端,就或许产生滑坡效应,包含的规模会越来越广,这种现象在交际媒体检查中现已有过表现。

关于AI对齐的问题,支撑者以为他们能规划出有益于社会的AI生成的言辞和考虑,一起制止有害的内容。反对者则以为,这种行为带有思维差人的高傲性质,乃至或许构成违法行为。他们以为,这或许会导致一种新的专制制度的产生。

虽然建议对AI输出施行严厉约束的观念或许只在人口的一小部分中存在,但这种观念的影响或许会对全球产生深远影响,因为AI很或许成为未来国际的操控层。因而,关于AI被答应说/生成什么的争辩,将比交际媒体检查愈加重要。

总的来说,咱们应当避免对AI的过度检查,并答应其在契合社会利益的规模内自在开展。 

不要让思维差人限制AI。

‍4AI危险#3:AI会夺走咱们全部的作业吗?

人们关于因为科技开展引发的作业丢失惊惧已有数百年前史,其间最为人知的是2000年代的外包惊惧和2010年代的自动化惊惧。但是,虽然总有声响声称技能将对人类劳作力构成消除性冲击,但前史上新技能的呈现总能带来更多的作业时机和更高的薪资水平。

现在,人工智能(AI)的呈现再度引发惊惧,有人以为AI会夺走全部的作业。但是,实践上,假如答应AI开展并在整个经济中广泛运用,或许会引发有史以来最为明显和耐久的经济繁荣,相应地带来*的作业和薪资添加。

猜测自动化会消除作业的观念往往依据劳作总量过错,即以为在任何特定时刻,经济中需求完结的劳作量是固定的,要么由机器完结,要么由人完结。但是,当技能运用于出产时,咱们就能完结出产力添加,从而下降产品和服务的价格,这反过来会添加经济中的需求,推进新的出产发明,以及新产业和新作业的诞生。

当咱们将视界扩展,从个别工人的视点来看,商场会依据工人的边沿出产力来设定酬劳。在技能化的企业中的工人比传统企业中的工人更有出产力,因而他们能取得更高的薪酬。简而言之,技能可以进步人们的出产力,从而下降产品和服务的价格,一起进步薪酬。这将推进经济添加和作业添加,一起发明新的作业和新产业。

但是,有人或许会以为,这次的AI技能是不同的,它可以替代全部人力劳作。但假定全部人力劳作都被机器替代,那将意味着经济出产力的极速添加,顾客的福利和购买力都将飙升,新的需求将爆破式添加,创业者将发明新产业、产品和服务,并尽或许快地雇佣人和AI以满意这些需求。即便AI再次替代了这些劳作力,这个周期还会持续,进一步提高顾客福利、经济添加以及作业和薪酬添加。因而,AI不会消除作业,也永久不会。

咱们应该如此走运。

‍5、AI危险#4:AI会导致严峻的不平等吗?

将AI抢走作业的忧虑与或许引发的财富不平等问题联系起来,这个观念在曩昔屡次被证明是过错的,现在也相同不正确。

一项技能的全部者的实在爱好在于将其产品出售给尽或许多的客户,而不是独占技能。技能的开展和运用,虽然起先或许会被大公司和有钱人占有,但终究都会普及至全球,让每个人获益。特斯拉的开展便是一个很好的比方:它先制作贵重的跑车,然后用这笔收入制作更平价的轿车,终究使其产品面向*或许的商场——全球顾客。

埃隆·马斯克,经过向全球出售特斯拉产品,*化了自己的赢利。这样的比方并不只限于轿车,还有电力、播送、计算机、互联网、移动电话和搜索引擎等技能,制作这些产品的公司都在极力下降价格,让全球的人都能负担得起。现在,AI也在走相同的路,例如微软的Bing和Google的Bard等AI产品的价格不只低价,乃至还可以免费运用。这些供货商期望经过扩展商场规划来*化赢利。

因而,实践上,技能并没有导致财富会集,相反,技能使个人用户取得权利,捕获大部分产生的价值。只需他们在自在商场中运作,构建AI的公司也会极力完结这种状况。

但是,咱们社会中的不平等问题的确存在,但它不是由技能推进的,而是由对新技能抵抗*、政府干涉最多的部分推进的,例如住宅、教育和医疗保健等范畴。AI并不会导致更多的不平等,反而,假如咱们答应运用AI,它或许有助于削减不平等。

6、AI危险#5:AI会导致坏人做坏事吗?

AI危险的五大疑虑中,我现已解说了前四个并不构成实在要挟:AI不会忽然活过来并对人类构成要挟,AI不会损坏咱们的社会,AI不会导致大规划赋闲,AI也不会引发损坏性的社会不平等添加。但是,第五个疑虑,我有必要供认,的确有或许成为问题:AI有或许使坏人更易于做坏事。

科技,从一开端就被视为东西,它可以被用于功德,比方烹饪食物、制作房子,一起也可以用于恶事,比方烧伤人或许用石头打人。AI作为一种先进技能,当然可以被用于善事和恶事。坏人,包含违法分子、恐惧分子和仇视政府,都或许运用AI来协助他们更简略地做坏事。

这个观念或许会使人产生一种主意,那便是在作业变得太糟糕之前,咱们应该中止这个危险,制止AI。但AI并非某种稀有、艰深的物理资料,例如钚。相反,它是依据最易得到的资料——数学和代码。AI的研讨和学习资源现已广泛敞开,包含许多的免费在线课程、书本、论文和视频。优异的开源完结也在日益增多。AI像空气相同无处不在,企图阻挠AI的开展需求施加严格的极权压榨——比方全球政府监控和操控全部的电脑,或许抓捕违规的显卡——这样的结果咱们将失掉值得维护的社会。

因而,有两种更实践的办法来应对坏人运用AI做坏事的危险。首要,咱们的法令现已将许多或许用AI施行的坏事界说为违法。例如,侵略五角大楼,从银行偷钱,制作生物武器,施行恐惧行为,这些都是违法。咱们的作业应该是避免这些违法在咱们可以避免的时分,当咱们无法避免的时分,对违法者进行申述。咱们乃至不需求新的法令。假如咱们发现了AI的新的坏用处,咱们应该立法制止这个特定的用处。

其次,咱们应该尽或许地运用AI进行好的、合法的、防护性的作业。使AI在避免坏事产生的过程中发挥出其强壮的才能。例如,假如你忧虑AI生成的假人和假视频,处理方案应该是建立新的体系,让人们可以经过暗码签名来验证自己和实在内容,而不是制止AI。咱们也应该让AI在网络防护、生物防护、反恐以及其他咱们需求做的全部作业中发挥作用。

总的来说,虽然制止AI看似是维护社会的手法,但实在有用的办法是运用AI去避免AI被坏人用来做坏事。经过这种办法,一个充溢AI的国际,将会比咱们现在所日子的国际更安全。

‍‍7、咱们应该怎么做?

我为处理AI问题提出了几点战略: 

首要,大型AI公司应被鼓舞尽或许快速和活跃地开展AI,但不能答应他们经过过错了解AI危险来取得政府的维护,构成卡特尔。

其次,创业AI公司也应被鼓舞尽或许快速和活跃地开展AI,他们不该遭到政府维护,也不该承受政府的帮助。他们应该公平竞赛。 

第三,开源AI应被答应自在分散,与大公司和创业公司竞赛。这不只有助于敞开立异,也为期望学习AI的人供给了便当。 

第四,政府应与私营部门协作,活跃运用AI处理潜在的危险问题,从AI危险到更遍及的问题,如营养不良、疾病和气候问题。 

It's time to build。

8、传奇与英豪

我以两个简略的陈说作为完毕。 AI的开发始于20世纪40年代,与计算机的发明一起产生。*篇关于神经网络——咱们今日所具有的AI架构——的科学论文发表于1943年。在曩昔的80年中,整整一代代的AI科学家诞生,上学,作业,而在许多状况下,他们在没有看到咱们现在所取得的作用的状况下离世。他们每一个人都是传奇。 

现在,越来越多的工程师——其间许多是年轻人,他们的祖爸爸妈妈乃至曾祖爸爸妈妈或许参加了AI背面理念的发明——正在努力使AI成为实际,他们面对的是一堵惊惧和厄运论者的墙,这些人企图将他们描绘成莽撞的恶棍。我不以为他们是莽撞或是恶棍。他们每一个人都是英豪。我和我的团队非常高兴可以支撑他们中的尽或许多的人,咱们将百分之百地站在他们和他们的作业身边。