漂亮人妇荡欲在线观看,女人私密部位高清图片,特黄特色视频免费大片,舌头伸进去添的我乱叫,大胸美女揉胸,激情久久综合网,日本xx片

AI哨所|AI或改變世界戰(zhàn)爭(zhēng),真能引發(fā)核武大戰(zhàn)?

鳳凰網(wǎng)科技訊 《AI哨所》北京時(shí)間5月6日消息,本周四,當(dāng)美國(guó)總統(tǒng)拜登參加在白宮舉行的AI高峰會(huì)時(shí),他向在座的科技領(lǐng)袖們說(shuō)的第一句話就是“你們正在做的事情蘊(yùn)含巨大潛力,也存在巨大危險(xiǎn)”。

拜登的國(guó)家安全助手表示,這一表態(tài)反映了拜登對(duì)最近一些機(jī)密簡(jiǎn)報(bào)的看法。該簡(jiǎn)報(bào)涉及AI這項(xiàng)新技術(shù)的潛力,它有可能顛覆戰(zhàn)爭(zhēng)、網(wǎng)絡(luò)沖突,在最極端的情況下還可能顛覆使用核武器的決策。

但是,就在拜登發(fā)出警告的同時(shí),美國(guó)國(guó)防部官員在科技論壇上發(fā)表講話時(shí)表示,他們認(rèn)為馬斯克等人提出的暫停開(kāi)發(fā)下一代ChatGPT和類似軟件六個(gè)月的想法是個(gè)糟糕主意,因?yàn)槠渌麌?guó)家不會(huì)等。

“如果我們停下來(lái),其他國(guó)家不會(huì)停,”五角大樓首席信息官約翰·謝爾曼(John Sherman)周三表示,“我們必須繼續(xù)前進(jìn)?!?/span>

緊張不安

他的這番直率表態(tài)凸顯了當(dāng)今整個(gè)防務(wù)界所感受到的緊張氣氛。在發(fā)展和控制武器方面,沒(méi)有人真正知道這些新技術(shù)到底有什么能力,他們也不知道什么樣的軍備控制制度(如果有的話)可能奏效。

拜登本周會(huì)見(jiàn)了AI行業(yè)科技領(lǐng)袖

拜登本周會(huì)見(jiàn)了AI行業(yè)科技領(lǐng)袖

這種預(yù)感是模糊的,但令人深感擔(dān)憂。ChatGPT會(huì)讓那些以前不容易接觸到破壞性技術(shù)的壞人得逞嗎?它是否會(huì)加速超級(jí)大國(guó)之間的對(duì)抗,使外交和談判的時(shí)間所剩無(wú)幾嗎?

“這個(gè)行業(yè)并不愚蠢,你已經(jīng)看到了自我調(diào)整的努力,”谷歌前董事長(zhǎng)埃里克·施密特(Eric Schmidt)表示,他在2016年至2020年期間擔(dān)任咨詢機(jī)構(gòu)國(guó)防創(chuàng)新委員會(huì)的首任主席。

“因此,業(yè)內(nèi)正在進(jìn)行一系列非正式對(duì)話,討論AI的安全規(guī)則會(huì)是什么樣子?!笔┟芴卣f(shuō)。他曾與前美國(guó)國(guó)務(wù)卿基辛格合作,撰寫了一系列關(guān)于AI顛覆地緣政治潛力的文章和書(shū)籍。

對(duì)于任何測(cè)試過(guò)ChatGPT初始迭代的人來(lái)說(shuō),他們都清楚要在系統(tǒng)中設(shè)置護(hù)欄。例如,這些機(jī)器人不會(huì)回答如何用一種藥物傷害某人,或者如何炸毀大壩或使核離心機(jī)癱瘓等問(wèn)題。美國(guó)和其他國(guó)家也是在沒(méi)有AI工具幫助的情況下開(kāi)展所有行動(dòng)。

但是,把這些行為列入黑名單只會(huì)減緩這些系統(tǒng)的濫用。很少有人認(rèn)為,他們可以徹底阻止這些行為。任何試圖關(guān)閉汽車安全帶警告系統(tǒng)的緊急嗶嗶聲的人都可以證明,總有一種方法可以繞過(guò)安全限制。

自主性武器

鳳凰網(wǎng)科技《AI哨所》了解到,盡管AI讓這些問(wèn)題變得普遍,但對(duì)于五角大樓來(lái)說(shuō),這并不是什么新鮮事。十年前,五角大樓就發(fā)布了關(guān)于開(kāi)發(fā)自主性武器的第一批規(guī)則。 五角大樓的聯(lián)合AI中心在五年前成立,旨在探索AI在戰(zhàn)斗中的應(yīng)用。

而且,一些武器已經(jīng)實(shí)現(xiàn)了自動(dòng)化。例如,能夠擊落進(jìn)入受保護(hù)空域的導(dǎo)彈或飛機(jī)的愛(ài)國(guó)者導(dǎo)彈,長(zhǎng)期以來(lái)都具備“自動(dòng)”模式。當(dāng)它們?cè)庥龃罅縼?lái)襲目標(biāo)時(shí),它們能夠在沒(méi)有人類干預(yù)的情況下開(kāi)火,反應(yīng)速度比人類快。但它們應(yīng)該受到人類的監(jiān)督,必要時(shí)人類可以中止攻擊。

愛(ài)國(guó)者導(dǎo)彈就有“自動(dòng)”模式

愛(ài)國(guó)者導(dǎo)彈就有“自動(dòng)”模式

此外,以色列情報(bào)機(jī)構(gòu)摩薩德對(duì)伊朗頂級(jí)核科學(xué)家穆赫森·法赫里扎德(Mohsen Fakhrizadeh)的暗殺,使用的就是一種由AI輔助的自主機(jī)關(guān)槍,盡管它似乎受到了高度遠(yuǎn)程控制。俄羅斯最近表示,它已經(jīng)開(kāi)始制造水下波塞冬核魚(yú)雷,但尚未部署。如果它能像俄羅斯宣傳的那樣,這種武器將能夠自主穿越海洋,避開(kāi)現(xiàn)有的導(dǎo)彈防御系統(tǒng),在發(fā)射幾天后就能發(fā)射核武器。

目前為止,世界上還沒(méi)有簽署關(guān)于這種自主性武器的條約或國(guó)際協(xié)定。在一個(gè)軍備控制協(xié)議被拋棄的速度超過(guò)談判速度的時(shí)代,達(dá)成這樣一項(xiàng)協(xié)議的前景渺茫。但是,ChatGPT及其類似軟件所提出的挑戰(zhàn)是不同的,而且在某些方面更為復(fù)雜。

核武風(fēng)險(xiǎn)

在軍事領(lǐng)域,AI自動(dòng)化指揮和控制的誘惑將是巨大的,但是危險(xiǎn)更大。

自原子彈以來(lái),沒(méi)有一項(xiàng)技術(shù)能像AI那樣激發(fā)人們對(duì)世界末日的想象。自從去年11月ChatGPT開(kāi)始展示出強(qiáng)大的邏輯推理以來(lái),互聯(lián)網(wǎng)上就充斥著世界末日的場(chǎng)景。許多都是自我意識(shí)的幻想,目的是刺激人們想象,如果一個(gè)新興的智能開(kāi)始理解世界以及他們自己的目標(biāo),即便與它的人類創(chuàng)造者的方式有一點(diǎn)不同,事情會(huì)變得多么糟糕。然而,有一種場(chǎng)景不需要太多想象力,因?yàn)樗牡谝徊娇梢哉f(shuō)已經(jīng)邁出了:AI逐漸融入到我們今天擁有的最具破壞性的技術(shù)中。

世界主要軍事大國(guó)已經(jīng)開(kāi)始了一場(chǎng)將AI應(yīng)用于戰(zhàn)爭(zhēng)的競(jìng)賽,軍備控制的新時(shí)代似乎將要到來(lái)。目前,這主要集中在讓算法控制單個(gè)武器或無(wú)人機(jī)群上。沒(méi)有人使用AI來(lái)制定大戰(zhàn)略,或者參加參謀長(zhǎng)聯(lián)席會(huì)議。但是,加速核軍備競(jìng)賽是個(gè)同樣誘人的邏輯,它可能會(huì)在幾年的時(shí)間里推動(dòng)AI進(jìn)入指揮系統(tǒng)。這個(gè)速度有多快在某種程度上取決于技術(shù)的進(jìn)步有多快,而且它似乎進(jìn)展得很快。它能走多遠(yuǎn),取決于我們作為人類的先見(jiàn)之明,取決于人類采取集體克制行動(dòng)的能力。

美國(guó)發(fā)射的探空火箭搭載了高超音速武器實(shí)驗(yàn)

美國(guó)發(fā)射的探空火箭搭載了高超音速武器實(shí)驗(yàn)

AI如何在核對(duì)峙的背景下理解自己的目標(biāo)是一個(gè)關(guān)鍵。訓(xùn)練AI玩各種游戲的研究人員反復(fù)遇到過(guò)這樣一個(gè)問(wèn)題:AI對(duì)勝利的感知可能難以捉摸。在某些游戲中,AI一直以可預(yù)測(cè)的方式執(zhí)行,直到環(huán)境中的一些微小變化導(dǎo)致它們突然改變策略。例如,AI 被教導(dǎo)玩一個(gè)游戲,在這個(gè)游戲中尋找鑰匙來(lái)解鎖寶箱并獲得獎(jiǎng)勵(lì)。 它一直這樣做,直到工程師調(diào)整游戲環(huán)境,使鑰匙比箱子多,之后它開(kāi)始囤積所有鑰匙,盡管很多鑰匙都沒(méi)用,有時(shí)只會(huì)嘗試解鎖箱子。 核武器或防御方面的任何創(chuàng)新都可能導(dǎo)致AI出現(xiàn)類似的戲劇性轉(zhuǎn)變。

AI加持的系統(tǒng)可以加快戰(zhàn)場(chǎng)決策的速度,以至于它們會(huì)產(chǎn)生全新的意外襲擊風(fēng)險(xiǎn),或者是根據(jù)誤導(dǎo)性或故意錯(cuò)誤發(fā)出的來(lái)襲警報(bào)做出的決策。

“AI在軍事和國(guó)家安全領(lǐng)域的一個(gè)核心問(wèn)題是,如何抵御比人類決策速度更快的攻擊,我認(rèn)為這個(gè)問(wèn)題還沒(méi)有解決,”施密特表示,“換句話說(shuō),導(dǎo)彈來(lái)得如此之快,必須有一個(gè)自動(dòng)反應(yīng)。如果是錯(cuò)誤的信號(hào)怎么辦?”

冷戰(zhàn)期間到處都是錯(cuò)誤警告的故事。例如有一次,一盤本應(yīng)用于演練核反應(yīng)的訓(xùn)練磁帶不知何故被放入了錯(cuò)誤的系統(tǒng),引發(fā)了一次蘇聯(lián)大規(guī)模攻擊即將到來(lái)的警報(bào)(正確的判斷讓所有人解除戒備)。新美國(guó)安全中心的保羅·沙雷(Paul Scharre)在他2018年出版的《無(wú)人軍隊(duì)》一書(shū)中指出,“從1962年到2002年,至少發(fā)生了13起接近使用核武的事件”, “這證實(shí)了這樣一種觀點(diǎn),即未遂事件是核武器的正常情況,即使是可怕的情況”。

出于這個(gè)原因,當(dāng)超級(jí)大國(guó)之間的緊張關(guān)系比今天低得多的時(shí)候,許多總統(tǒng)試圖通過(guò)談判,為各方的核決策留出更多時(shí)間,這樣就不會(huì)有人匆忙卷入沖突。但生成式AI有可能將各國(guó)推向另一個(gè)方向,即更快地做出決策。

好消息是,主要大國(guó)可能會(huì)謹(jǐn)慎行事,因?yàn)樗鼈冎缹?duì)手會(huì)做出什么反應(yīng)。但到目前為止,大國(guó)之間還沒(méi)有就核武器使用規(guī)則達(dá)成一致。

如何應(yīng)對(duì)?

在斯坦福大學(xué)最近發(fā)起的一項(xiàng)研究中,超過(guò)三分之一的AI研究人員以及“AI教父”杰弗里·辛頓(Geoffrey Hinton)都認(rèn)為,AI的崛起對(duì)人類的生存構(gòu)成了威脅,與核武器的使用不相上下。辛頓最近剛剛從谷歌離職,以便更自由的討論AI風(fēng)險(xiǎn)。

他在5月3日接受采訪時(shí)稱:“我只是一位突然意識(shí)到這些東西比我們更聰明的科學(xué)家。我想說(shuō)的是,我們應(yīng)該認(rèn)真考慮如何阻止這些東西控制我們。這將非常困難,我沒(méi)有解決方案。”

36%的研究人員認(rèn)為AI決策或引發(fā)核武級(jí)災(zāi)難

36%的研究人員認(rèn)為AI決策或引發(fā)核武級(jí)災(zāi)難

他還表示,AI的威脅要比氣候變化更迫切。 “我不想貶低氣候變化的威脅。我不想說(shuō),‘你不應(yīng)該擔(dān)心氣候變化’。這也是一個(gè)巨大的風(fēng)險(xiǎn),”辛頓說(shuō),“但我認(rèn)為,這件事(AI)最終可能會(huì)變得更加緊迫?!?/span>

今年4月,美國(guó)三名民主黨人和一名共和黨人共同在眾議院提出了一項(xiàng)法案,旨在防止AI系統(tǒng)發(fā)展到可以自主發(fā)動(dòng)核攻擊的地步。此舉旨在先發(fā)制人,阻止美國(guó)國(guó)防部做出未來(lái)任何可能導(dǎo)致AI自行發(fā)射核武器的政策決定。

“雖然美國(guó)在軍事上使用AI在加強(qiáng)國(guó)家安全目的方面是適當(dāng)?shù)?,但在沒(méi)有人類指揮和控制的情況下使用AI部署核武器是魯莽、危險(xiǎn)的,應(yīng)該被禁止?!笨屏_拉多州共和黨眾議員肯·巴克(Ken Buck)表示。

加州民主黨眾議員劉云平(Ted Lieu)稱,“在保護(hù)后代免受潛在破壞性后果的影響方面,我們作為國(guó)會(huì)議員的職責(zé)是要有負(fù)責(zé)任的先見(jiàn)之明”。他一直在直言不諱地指出,任由AI不受限制地快速發(fā)展是危險(xiǎn)的。

一些專家指出,既然不可能阻止ChatGPT和類似軟件的傳播,最大的希望是限制推進(jìn)這項(xiàng)技術(shù)所需的專用芯片和其他計(jì)算能力。毫無(wú)疑問(wèn),這將是未來(lái)幾年提出的許多不同的軍備控制計(jì)劃之一,因?yàn)槟壳爸饕舜髧?guó)似乎對(duì)舊武器談判不感興趣,更不用說(shuō)新武器了。鳳凰網(wǎng)科技《AI哨所》對(duì)此將持續(xù)關(guān)注。(作者/簫雨)


相關(guān)內(nèi)容