來源:本文內(nèi)容參考字霍金的講話和采訪 著名科學(xué)家霍金,被譽(yù)為“宇宙之王”,他認(rèn)為:人類迄今為止最為深刻的影響就是人工智能的崛起,對于人工智能,他有以下十點(diǎn)深刻的思考: 1 在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智能的崛起。 人工智能可能是人類文明史上最偉大的事件,它要么是人類歷史上最好的事,要么是最糟的。如果我們不能學(xué)會如何避免風(fēng)險(xiǎn),那么我們會把自己置于絕境。 如果有人設(shè)計(jì)計(jì)算機(jī)病毒,那么就有人設(shè)計(jì)不斷自我完善、直到最終超越人類的人工智能,其結(jié)果將是一種新的生命形式。 人工智能的真正風(fēng)險(xiǎn)不是它的惡意,而是它的能力。一個超智能的人工智能在完成目標(biāo)方面非常出色,如果這些目標(biāo)與我們的目標(biāo)不一致,我們就會陷入困境?!?/p> 2 人工智能對人類的影響,可以從短期、長期兩方面來分別討論。 短期擔(dān)憂——智能自主武器、隱私 人工智能的全方位發(fā)展可能招致人類的滅亡。比如最大化使用智能性自主武器。 目前,世界上九個核大國可以控制大約一萬四千個核武器,它們中的任何一個國家都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會導(dǎo)致全球的小冰河期。 這一結(jié)果使全球糧食體系崩塌,末日般動蕩,很可能導(dǎo)致大部分人死亡。我們作為科學(xué)家,對核武器承擔(dān)著特殊的責(zé)任。正是科學(xué)家發(fā)明了核武器,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕。 除此之外就是隱私的擔(dān)憂。由于人工智能逐漸開始解讀大量監(jiān)控?cái)?shù)據(jù),這些都會被機(jī)器人洞察的一覽無余。 3 長期擔(dān)憂——人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn) 人工智能遵循的一個邏輯是,“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”。這一天很快會到來。 未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。 我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。但事實(shí)就是:聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計(jì)的工作崗位。 人類由于受到漫長的生物進(jìn)化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟(jì)帶來極大的破壞。 4 在過去二百年中,人口增長率是指數(shù)級的,目前這一數(shù)值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。 這樣的指數(shù)增長不能持續(xù)到下個千年。到2600年,世界將擁擠得 “摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。 我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。 人類作為獨(dú)立的物種,已經(jīng)存在了大約二百萬年。我們的文明始于約一萬年前,其發(fā)展一直在穩(wěn)步加速。如果人類想要延續(xù)下一個一百萬年,我們就必須大膽前行,涉足無前人所及之處! 5 在某種程度上,今天的情況就如同1492年前的歐洲。當(dāng)時的人們很可能堅(jiān)信,哥倫布的探險(xiǎn)注定是徒勞無功。 然而,新世界的發(fā)現(xiàn),對舊世界帶來了深遠(yuǎn)的影響。對于那些被剝奪權(quán)利地位、走投無路的人來說,新世界成為了他們的烏托邦。 人類向太空的拓展,甚至將會產(chǎn)生更深遠(yuǎn)的影響,這將徹底改變?nèi)祟惖奈磥?,甚至?xí)Q定我們是否還有未來。它不會解決地球上任何迫在眉睫的問題,但它將提供解決這些問題的全新視角,讓我們著眼于更廣的空間,而不是拘泥眼下。 6 當(dāng)我們進(jìn)入太空時,會有怎樣的發(fā)現(xiàn)呢? 會找到外星生命,還是發(fā)現(xiàn)我們終將在宇宙中踽踽獨(dú)行?我們相信,生命在地球上是自然而生的,是在漫長的進(jìn)化后,實(shí)現(xiàn)了與地球資源的高度契合。因此,在其他條件適宜的星球上,生命的存在也必定是可能的。 去年,我們推出了長期研發(fā)計(jì)劃——“突破攝星”,目標(biāo)是讓星際旅行變成現(xiàn)實(shí)?!巴黄茢z星”是人類初步邁向外太空的真正機(jī)會,為了探索和考量移居太空的可能性。 這項(xiàng)創(chuàng)新背后的想法,是以光束來驅(qū)動納米飛行器的前進(jìn)。這樣產(chǎn)生的速度雖然不及光速,但也能達(dá)到其五分之一,約合每小時1億英里。這樣的系統(tǒng)可以在一小時內(nèi)抵達(dá)火星,幾天內(nèi)到達(dá)冥王星,一周內(nèi)就可以追上并超過旅行者號探測器,并在僅二十年后到達(dá)半人馬座阿爾法星系。 7 人工智能的成功有可能是人類文明史上最大的事件。但人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險(xiǎn)。 我相信我們團(tuán)結(jié)在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領(lǐng)袖和科學(xué)家正極盡所能避免不可控的人工智能的崛起。所以,監(jiān)管和立法在AI的發(fā)展過程中十分重要。 8 通過達(dá)爾文式的演化過程,侵略性深深根植于我們的基因之中。然而,如今的技術(shù)發(fā)展已經(jīng)加快到了某種程度,使這種侵略性可能會以核戰(zhàn)爭或生物戰(zhàn)爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能。 你可能并不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負(fù)責(zé)一個水力發(fā)電的綠色能源項(xiàng)目,項(xiàng)目所在的區(qū)域內(nèi)也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處于這些螞蟻的境地。 9 人類面臨的最大威脅是我們自身的弱點(diǎn),即貪婪和愚蠢。這些人性的基本屬性,將使在人工智能時代的境況將變的更加糟糕,因?yàn)楫?dāng)機(jī)器被設(shè)定程序后就知道適可而止,知道就流勇退,但是人類很難,除非是那些極高修為的人,才能突破人性的弱點(diǎn),但是機(jī)器人可以輕而易舉的回避這些弱點(diǎn)。 10 我們還應(yīng)該扮演一個角色,確保下一代不僅僅有機(jī)會還要有決心,在早期階段充分參與科學(xué)研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個更加美好的的世界。 責(zé)任編輯:翁建平 |
【免責(zé)聲明】本文僅代表作者本人觀點(diǎn),與本網(wǎng)站無關(guān)。本網(wǎng)站對文中陳述、觀點(diǎn)判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。
本網(wǎng)站凡是注明“來源:七禾網(wǎng)”的文章均為七禾網(wǎng) levitate-skate.com版權(quán)所有,相關(guān)網(wǎng)站或媒體若要轉(zhuǎn)載須經(jīng)七禾網(wǎng)同意0571-88212938,并注明出處。若本網(wǎng)站相關(guān)內(nèi)容涉及到其他媒體或公司的版權(quán),請聯(lián)系0571-88212938,我們將及時調(diào)整或刪除。
七禾研究中心負(fù)責(zé)人:劉健偉/翁建平
電話:0571-88212938
Email:57124514@qq.com
七禾科技中心負(fù)責(zé)人:李賀/相升澳
電話:15068166275
Email:1573338006@qq.com
七禾產(chǎn)業(yè)中心負(fù)責(zé)人:果圓/王婷
電話:18258198313
七禾研究員:唐正璐/李燁
電話:0571-88212938
Email:7hcn@163.com
七禾財(cái)富管理中心
電話:13732204374(微信同號)
電話:18657157586(微信同號)
七禾網(wǎng) | 沈良宏觀 | 七禾調(diào)研 | 價值投資君 | 七禾網(wǎng)APP安卓&鴻蒙 | 七禾網(wǎng)APP蘋果 | 七禾網(wǎng)投顧平臺 | 傅海棠自媒體 | 沈良自媒體 |
? 七禾網(wǎng) 浙ICP備09012462號-1 浙公網(wǎng)安備 33010802010119號 增值電信業(yè)務(wù)經(jīng)營許可證[浙B2-20110481] 廣播電視節(jié)目制作經(jīng)營許可證[浙字第05637號]
技術(shù)支持 本網(wǎng)法律顧問 曲峰律師 余楓梧律師 廣告合作 關(guān)于我們 鄭重聲明 業(yè)務(wù)公告
中期協(xié)“期媒投教聯(lián)盟”成員 、 中期協(xié)“金融科技委員會”委員單位