Hi,歡迎來到黃頁88網(wǎng)!
當(dāng)前位置:首頁 > 人工智能 > AI人工智能會毀滅人類嗎?可能的方式有哪些?

AI人工智能會毀滅人類嗎?可能的方式有哪些?

互聯(lián)網(wǎng)時間: 2023-08-03 11:45:42

AI崛起之后,會毀滅人類嗎?如果會的話,它又會以怎樣的方式毀滅人類呢?關(guān)于這點,很多人都在擔(dān)心,因為好萊塢早就預(yù)言過,AI都不是什么好東西。不管是終結(jié)者里的天網(wǎng),還是黑客帝國里的矩陣,又或是西部世界里的Host,總之,它們不是要滅亡人類就是要圈養(yǎng)人類,再次再次,也要跟人類平起平坐。這你受得了嗎!

所以在看到過去幾個月里,人工智能的突飛猛進(jìn)之后,很多大咖都急了,表示要是我們再不加限制的開發(fā)AI,一個恐怖的將來就一定會在不遠(yuǎn)處等著我們。這里面喊聲最大的一個,大概就要數(shù)埃隆馬斯克了,看來,他真的很討厭AI呀。

那么問題就來了,當(dāng)你很討厭一樣?xùn)|西,又拿它沒辦法的時候,該怎么做呢?埃隆馬斯克給我們上了很好的一課,那就是——用另一個AI去干掉自己討厭的這個AI。

好吧,所以本質(zhì)上,他只是不放心別人開發(fā)的AI而已。

就在最近,埃隆馬斯克正式推出了一家名為xAI的人工智能公司, 雖然目前我們對該公司的雄心壯志了解甚少,但馬斯克在Twitter Spaces活動中表示,他希望他的人工智能能夠“理解宇宙的真實本質(zhì)”。

為什么讓人工智能理解宇宙的本質(zhì)那么重要,因為馬斯克認(rèn)為——如果AI理解了宇宙的真實本質(zhì),它就會明白,人類其實會比非人類有趣太多了,于是基于這點,它自然就會站在人類的一邊,成為一個對人類來說安全的AI了。呃......這個邏輯......通嗎?

好吧,希望它通,因為如果不通,人類的未來在AI面前,可能的確會比較黯淡。我最近正好看了一篇文章,標(biāo)題就叫做《人工智能傷害我們的最危險、最令人意外和最讓人討厭的六種方式》,文章的作者在采訪了大量相關(guān)領(lǐng)域的專家和從業(yè)者后,得出結(jié)論——雖然AI可能并不會像好萊塢宇宙中表現(xiàn)的那么邪惡,但是它依然會給我們制造大量的噩夢,其中有六個,已經(jīng)到了讓人夜不能寐的程度,下面,我就來分享一下。

但事先說明,由于作者和他訪談的對象都是國外的,所以其中舉的案例也基本都是國外的,可能跟我們的情況會略有不同,大家如果有不同的意見或者補(bǔ)充,正好可以在留言區(qū)討論討論。下面,噩夢就來了。

噩夢一,叫做數(shù)據(jù)分身的詛咒。2011年,美國密歇根州州長批準(zhǔn)了一筆資金,讓密歇根失業(yè)保險局開發(fā)一個新的算法,目的是要讓該算法能夠智能的檢測保險欺詐。

保險局與三家不同的軟件開發(fā)公司合作,于2013年推出了密歇根集成數(shù)據(jù)自動化系統(tǒng)(MiDAS)。盡管該局從未透露算法從哪里收集數(shù)據(jù),但隨后的訴訟表明,它可能從雇主提供的失業(yè)數(shù)據(jù)集中收集了不準(zhǔn)確的細(xì)節(jié)。因為在接下來的兩年里,MiDAS錯誤地指控了4萬多人欺詐,并通過各種方式迫使他們支付了高額的罰款。

但這還不算最糟糕的,一旦MiDAS在數(shù)據(jù)庫中錯誤地將成千上萬的無辜者標(biāo)記為騙子,其他使用該數(shù)據(jù)庫進(jìn)行背景調(diào)查的機(jī)構(gòu)就會重復(fù)這些錯誤信息。于是,有些被指控者便無法找到工作,有些則無法再領(lǐng)取失業(yè)救濟(jì)金。而這其中最絕望的一點是,當(dāng)這些人突然被當(dāng)成是罪犯來對待時,他們根本就想不明白這是為什么?到底背后發(fā)什么什么?直到,有缺陷的算法被曝光之后,他們才用集體訴訟的方式為自己討回了公道。

好,你以為這就完了嗎?不,噩夢還沒走,甚至,它這一輩子都走不掉了。倫理組織AI Now的主席梅雷迪斯·惠特克將MiDAS創(chuàng)造出來的與真實人物有偏差的在線版本稱為“數(shù)據(jù)分身”。它們的功能很像被盜用的身份,一旦建立起來,就幾乎無法刪除。因為我們的很多數(shù)據(jù)都被重新打包并出售給第三方,所以一個由人工智能創(chuàng)造出來的數(shù)據(jù)分身可能會從你的保險記錄里消失,但又會出現(xiàn)在你的銀行記錄、學(xué)校錄取或工作背景調(diào)查中。由于許多數(shù)據(jù)庫是集中式的,所以一個數(shù)據(jù)分身可能會在你的一生中跟隨你許多年。

惠特克說:“這些系統(tǒng)正在生成沒有人給予它們的虛假個人數(shù)據(jù),而它們正變得越來越比真相更真實。這一定會影響我們的生活?!?/p>

接著,是噩夢二,它叫做“萬歲,隨機(jī)鸚鵡”。

鸚鵡學(xué)舌我們都知道,要是訓(xùn)練的好,你完全可以跟一只鸚鵡展開看似正常的對話——它可以跟你問好、可以跟你打招呼、甚至,還能跟你對罵幾句——盡管,它可能根本就不知道這些語言的含義。

誒,對比一下,GPT之所以厲害,之所以它說的話看起來像是人說的,不就是因為我們用了大量人類的語言去訓(xùn)練它的結(jié)果嗎。但是,它真的就明白這些語言背后的真實含義嗎?不見得。

華盛頓大學(xué)社會未來實驗室的負(fù)責(zé)人艾米·張說,她最擔(dān)心的就是AI胡說八道的傾向。很多通過ChatGPT或是其他類似的,能夠?qū)懗龃蠖尉渥由踔琳恼碌腁I說出來的東西,咋聽起來非常合理,但你仔細(xì)一想,就會發(fā)現(xiàn)錯得是相當(dāng)離譜。

她舉了個例子,在一次科學(xué)作家蓋瑞·馬庫斯與ChatGPT的對話中,后者建議到,將瓷器粉加入母乳有好處,因為——瓷器粉可以幫助平衡母乳的營養(yǎng)成分,為嬰兒提供生長和發(fā)育所需的營養(yǎng)。是不是的相當(dāng)?shù)幕闹嚒?/p>

研究人員稱這種現(xiàn)象為“隨機(jī)鸚鵡”問題: 當(dāng)計算機(jī)以混亂的方式復(fù)制聽起來像是人類的短語時,這種問題就會發(fā)生。艾米介紹,隨機(jī)鸚鵡可能會在互聯(lián)網(wǎng)上散播大量錯誤信息,從而造成一場堪稱核災(zāi)難級別的垃圾信息泛濫。AI生成內(nèi)容的擴(kuò)散將使得在一片垃圾信息中找到高質(zhì)量信息變得更加困難。最終,我們必然面臨一個完全被隨機(jī)鸚鵡信息取代了人類生成文字的世界。到那個時候,除了垃圾,還剩什么呢?隨機(jī)鸚鵡,真的是萬歲了。

噩夢三,AI學(xué)會了偏見。當(dāng)我們現(xiàn)在為AI能做的很多事感到興奮不已,并本能的認(rèn)為這是一個全新開啟的時代時。其實,你要知道,大多數(shù)的人工智能實際上是建立在一些能追溯到上個世紀(jì)80年代的“破舊系統(tǒng)”之上的。所以可以這么說:AI不是什么新技術(shù),新的,只不過是我們現(xiàn)在擁有的大量數(shù)據(jù)和計算能力。

這會帶來什么問題?這會帶來算法通過學(xué)習(xí)按照舊有標(biāo)準(zhǔn)分類的數(shù)據(jù),從而得出偏離了真相的結(jié)果。比如AI在警務(wù)平臺上的使用。 上個世紀(jì)90年代,洛杉磯警察使用一個奇怪的縮寫詞“NHI”來指代涉及黑人和其他少數(shù)族裔的事件。NHI到底是什么意思呢?后來通過調(diào)查才知道,它是“沒有涉及人類 no humans involved”的縮寫。

這就相當(dāng)歧視了,意思就是在洛杉磯警察的眼里黑人和少數(shù)族裔都不是人唄。顯然,這個縮寫很快就被刪除。但是,就像我們上面講到的一樣,數(shù)據(jù)分身是很難被徹底抹掉的。在用可能含有這個縮寫的數(shù)據(jù)去訓(xùn)練AI的過程中,AI也許就會錯誤的學(xué)習(xí)到某些人比其他人不那么有價值——等于是把歧視和偏見也學(xué)了下來。

這也是多年來人工智能專家一直在警告的,一些警務(wù)算法是根據(jù)有偏見的數(shù)據(jù)進(jìn)行訓(xùn)練的,于是很容易就將黑人與犯罪畫上了等號。通常,這些算法會“學(xué)習(xí)”誰更可能犯罪,這是基于逮捕和監(jiān)禁的歷史數(shù)據(jù),而其中黑人美國人由于曾經(jīng)被不公平地定位為目標(biāo),就導(dǎo)致了他們在這些數(shù)據(jù)中占據(jù)了錯誤的高比例。

隨著人臉識別越來越多地被集成到智能監(jiān)控攝像頭中,這個問題將變得更加嚴(yán)重。因為當(dāng)一個超市試圖安裝這樣的智能攝像頭,來將顧客的臉與之前涉嫌偷竊的人匹配,從而警告保安人員時。錯誤訓(xùn)練的AI很有可能會將亂指無辜,既傷害了顧客的權(quán)利,也削弱了商場的信譽,可謂極具危害性。

噩夢四,AI教我打仗。想象這么一個場景,在未來的戰(zhàn)場上,一個軍事指揮官正在與恐怖分子作戰(zhàn),硝煙籠罩,他需要同時處理數(shù)百個關(guān)于發(fā)生了什么的相互矛盾的情報,并迅速做出一個可能會造成不同傷亡的決策。那么,他應(yīng)該怎么做呢?

合理的推測是,依靠AI。

美國國防高級研究計劃局(DARPA)已經(jīng)開始啟動一個名為ITM(In The Moment)的項目,旨在設(shè)計一個可以幫助做出關(guān)于戰(zhàn)場傷亡的復(fù)雜決策的算法。所以,在可以預(yù)見的未來,將會有更多算法會基于歷史沖突的數(shù)據(jù)來幫它做出決策。

但是,這些歷史沖突的數(shù)據(jù)就真的那么可靠嗎?如果這個未來的指揮官在歐洲,卻使用了基于阿富汗戰(zhàn)爭的數(shù)據(jù)所訓(xùn)練出來的AI呢?

你想,在阿富汗作戰(zhàn)的方式,它也許并不適合放在歐洲嘛,那么這樣的AI所做出的決策就勢必產(chǎn)生了偏差。最慘的,你即使知道有這個偏差,也很難去修正,因為它本質(zhì)上,是個“黑箱”問題。對于構(gòu)成我們算法基礎(chǔ)的神經(jīng)網(wǎng)絡(luò),我們可以看到的只有數(shù)據(jù)的輸入和輸出,而并不知道里面到底發(fā)生了什么。

比如我們現(xiàn)在在訓(xùn)練AI下棋時就會發(fā)生這種情況。AI贏了,是因為它想出了人類在數(shù)千年的下棋過程中從未想象過的棋步??蔀槭裁此苓@么想?它在想的過程中加入了什么、放棄了什么?這么做會帶來其他后果嗎?等等這些,我們是既看不到也無法理解,這就帶來了很多巨大的風(fēng)險。

比如,在未來的某個時刻,當(dāng)作戰(zhàn)指揮官問一隊由AI控制的無人機(jī)下一步該怎么做時,它們可能會制定出一種對指揮官而言毫無意義的策略——轟炸所有戴黃帽子的人。聽上去很荒謬吧?但是指揮官不得不相信它,因為它是通過對情報的大量分析后,才得出的這一判斷——恐怖分子都在暗中編織黃色的帽子。但是,萬一它是犯了一個錯,把織毛線帽的無辜大媽標(biāo)記成了恐怖分子呢?指揮官在做出決定之前是根本不會知道的,而當(dāng)他知道的時候,一切都已經(jīng)太晚了。

噩夢五, 你的大腦植入物不會讓你頂嘴。最終,我們一定會邀請算法進(jìn)入我們的身體。多倫多大學(xué)的研究人員已經(jīng)設(shè)計了可以植入到人腦中的增強(qiáng)型AI芯片,幫助罹患帕金森病的患者。當(dāng)然,我們還有其他的腦植入物,可以幫助癱瘓的人用意念控制鼠標(biāo)和鍵盤。

聽起來很安全,對吧?但是,等到心電感應(yīng)、用想一想就能給其他人發(fā)送信息的時候,情況就會發(fā)生變化了。由于像微軟這樣的公司會為文本加上預(yù)測算法,通過該算法來幫助你更快的完成你想要的句子。可它在另一方面,也既能阻止你講臟話,還能改變你可能想講的話。也許在一個不那么光明的未來,它會阻止你批評某個公司或者組織,甚至連一個有點創(chuàng)造性的提議都不會讓你發(fā)出來。

最后,噩夢六,跨越了維度的麻煩。在噩夢二里面,隨機(jī)鸚鵡還只存在于你的瀏覽器里,但是,當(dāng)它跨出網(wǎng)絡(luò)開始控制你的汽車時會發(fā)生什么?這就是華盛頓大學(xué)法學(xué)教授瑞安·卡羅最關(guān)心的。他指出,人工智能與重要系統(tǒng)之間的意外互動,可能會帶來難以想象的后果。

其中一個系統(tǒng)可能就是你所在的智能城市。在那里,算法將控制從電網(wǎng)分配到交通流量等一切事情。想象一下,那些通過鸚鵡學(xué)舌自動產(chǎn)生了某些毫無意義的垃圾的算法,此刻可能正在控制著橋梁、控制著你所在建筑物的空調(diào)系統(tǒng),或者,控制著你的自動駕駛車輛穿過擁擠的市區(qū)......難道不令人恐懼嗎!

其實一些奇怪、或者說可怕的相互作用已經(jīng)出現(xiàn)了。比如,之前就有一群自動駕駛汽車,毫無緣由的阻塞了舊金山數(shù)小時的交通。這還不是最差的,還記得我上面說的黑箱問題嗎?在這里,黑箱問題也導(dǎo)致了人類既不能理解也不能修復(fù)的一些奇怪的交通行為。比方說,一個由AI控制的電網(wǎng)和交通系統(tǒng),該如何應(yīng)對一場突發(fā)而來的抗議或者慶?;顒幽兀?/p>

本文標(biāo)題: AI人工智能會毀滅人類嗎?可能的方式有哪些?

本文地址: http://hzmpf.cn/brand/news-6130mcf745.html

內(nèi)容均來源于網(wǎng)絡(luò),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com

2009-2024 黃頁88版權(quán)所有 京ICP備2023012932號-1京公網(wǎng)安備 11010802023561號 京ICP證100626

內(nèi)容均來源于網(wǎng)絡(luò),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com