這就是為什麼人工智慧會毀滅人類

這就是為什麼人工智慧會毀滅人類 𝐓𝐡𝐢𝐬 𝐈𝐬 𝐖𝐡𝐲 𝐀𝐈 𝐖𝐢𝐥𝐥 𝐃𝐞𝐬𝐭𝐫𝐨𝐲 𝐇𝐮𝐦𝐚𝐧𝐤𝐢𝐧𝐝

𝐁𝐲 𝐌𝐇, 𝐌𝐚𝐲 𝟑𝟎, 𝟐𝟎𝟐𝟒

𝐡𝐭𝐭𝐩𝐬://𝐭𝐡𝐞𝐲𝐟𝐥𝐲𝐛𝐥𝐨𝐠.𝐜𝐨𝐦/𝟐𝟎𝟐𝟒/𝟎𝟓/𝐭𝐡𝐢𝐬-𝐢𝐬-𝐰𝐡𝐲-𝐚𝐢-𝐰𝐢𝐥𝐥-𝐝𝐞𝐬𝐭𝐫𝐨𝐲-𝐡𝐮𝐦𝐚𝐧𝐤𝐢𝐧𝐝

自我毀滅對進化來說並不是必要的,但精靈永遠脫離了瓶子 

𝟏𝟗𝟖𝟕,早在當前技術被有效創造出來之前,𝐁𝐢𝐥𝐥𝐲 𝐌𝐞𝐢𝐞𝐫 就預言了我們今天所說的人工智能 𝐀𝐈,以及它將如何在戰爭中使用,並最終反對人類,尋求其/我們的毀滅(搜尋術語:計算機)。

鮮為人知的可能是 𝐌𝐞𝐢𝐞𝐫 早期的警告,例如 𝟏𝟗𝟓𝟖 ,他寫到了電影、電視和電子媒體助長的自欺欺人,現在這些警告得到了進一步發展,透過 𝐂𝐆𝐈、深度造假傳播,並且也將隨著人工智能而增加:

𝟏𝟐𝟕.) 在第三個千年,大片大陸消失,人們將不得不逃往山區,但他們對災難的感覺只會持續很短的時間,因為他們很快就會再次忘記一切,因此,要努力做很多重建工作,因為他們已經透過電影和電視,以及後來透過電腦和電子產品的全球網絡,創造了幻影,透過這些網絡,他們欺騙自己,看到了不存在的東西,而且只是視覺決定了眼睛,隨後他們對現實的感覺消失了,他們不再能夠區分現實和虛構,從而越來越迷失在生活的迷宮中,而那些生產商業幻想以及宗教和宗派幻想的人,與有信仰的人進行一場輕鬆的遊戲,他們以各種可能的方式欺騙他們,使他們變得卑微,就像卑鄙的狗一樣。

人工智能 𝐀𝐈 也受到那些超人類主義者的歡迎,即那些在成為真正的人類之前就瘋狂地渴望與機器融合的人。真正的人類不會試圖用技術上的偽修復來填補因自身的不安全感、無能、缺陷、無知和存在恐懼而造成的空白。

真正的人類不會在沒有良心、道德和倫理準則的情況下發展和尋求將他們的技術能力應用於外部事務。

考慮一下:

薩姆·奧爾特曼剛剛犯了首席執行官不應該犯的第一個錯誤 𝐒𝐚𝐦 𝐀𝐥𝐭𝐦𝐚𝐧 𝐉𝐮𝐬𝐭 𝐌𝐚𝐝𝐞 𝐭𝐡𝐞 𝟏 𝐌𝐢𝐬𝐭𝐚𝐤𝐞 𝐍𝐨 𝐂𝐄𝐎 𝐒𝐡𝐨𝐮𝐥𝐝 𝐄𝐯𝐞𝐫 𝐌𝐚𝐤𝐞

假設文章準確地描述了情況,那麼:

「順便說一句,這才是真正的問題。如果你正在建立一家公司,生產一種人們認為可能會導致人類終結的產品,那麼信任似乎是你應該小心翼翼地守護的東西。

……遠遠沒有認識到「真正的問題」是什麼。

自我毀滅對進化來說並不是必然的,但精靈永遠不會從瓶子裡出來。雖然核武可以由不同國家開發,和/或落入流氓恐怖分子手中,但人工智慧可以而且已經被用於各種形式的濫用,這幾乎肯定會產生大規模的毀滅性後果大大小小的惡意團體。

雖然我對人工智慧的技術方面不太了解,但在我看來,創造和編程人工智慧的人類也可能有意識或無意識地輸入自己的個性、偏好、偏見、傲慢、自私、口是心非、攻擊性、不誠實、虐待狂、缺乏良知等等,這些都可以納入人工智慧本身,或許可以由人工智慧本身進一步發展。

雖然大多數事物本身可能是中性的,或者明確是為了特定的功能和應用,但到目前為止,它們的使用或誤用需要人類的故意意圖和行為。那些生產通常不被視為武器但有時被用作武器的東西的人的意圖、道德和倫理以前並不相關,也不會強制使用它們並非專門用於的用途。

因此,道德和倫理垃圾進來,道德和倫理垃圾出去,具有前所未有的自我選擇能力的技術可能會產生不可預見或被忽視的負面後果。

從 𝟑𝟑 點 𝟏𝟔 分開始的短短幾秒鐘,我們看到一些和平的人類,微笑著,握著彼此的手,一起圍成一圈,等等。種群體動作和舞蹈曾經在世界各地的許多文化中都很流行。

如今,它們在現代社會中顯得一點也不正常。即使是許多美國人熟悉的美國鄉村風格的排舞,與不同文化的傳統民俗舞蹈相比也顯得僵化和不自然。

人本來就不是機器,長得像人的機器也不適合代替人。

但精靈永遠是從瓶子裡出來的。

感謝 𝐓𝐫𝐚𝐞 發送寶貴的教育影片。

error: 內容受保護