馬斯克等全球千名科技人士聯名呼吁暫停更強大的AI開發
最近,有關ChatGPT和人工智能,幾乎每天都有新聞。隨著更“聰明”的GPT-4發布,人們對技術的恐慌和對科技倫理的擔憂,得到了更多關注。3月27日,《中國青年報》以《GPT-4再燃熱點 拷問科技倫理邊界》為題對該現象進行了報道。
(資料圖片僅供參考)
最新的消息是,當地時間3月29日,美國非營利組織未來生命研究所(Future of Life Institute)發布了一封名為“暫停巨型AI實驗”的公開信。上千名人工智能專家和行業高管在信中呼吁,所有人工智能實驗室應當暫停對更強大的人工智能系統的開發和訓練。至少,暫停半年。他們建議,如果不能迅速實施這種暫停,“政府應介入并實行暫停”。
人工智能對社會和人類的潛在風險,已經成為不少科技人士的共識,其中包括“人工智能教父”杰弗里·辛頓、特斯拉和推特CEO埃隆·馬斯克、圖靈獎得主約書亞·本希奧。為此,他們在這封公開信上簽下了自己的名字。
“只有當我們能夠確信,AI體系的有利因素都是積極的,且風險都可控,一個強大的AI體系才能成熟。”公開信中這樣寫道。
實際上,這不是未來生命研究所第一次公開呼吁對人工智能發展的警惕。2014年,這個組織在美國成立,成立的初衷一方面是促進對“未來樂觀圖景”的研究,一方面則是“降低人類面臨的現存風險”。而后者一直是其關注的重點。
2015年,物理學家斯蒂芬·霍金和埃隆·馬斯克等數位科學家、企業家,與人工智能領域有關的投資者,聯名發出了一封公開信,警告人們必須更多地注意人工智能的安全性及其社會效益。
那時,AI還沒有像今天這樣,呈現出令人不安的“智能”。但從那時候開始,馬斯克就已經表示,他堅信不受控制的人工智能“可能比核武器更危險”。
8年后,在愈來愈動蕩的經濟形勢中,新一封公開信的簽署者們提出疑問:“我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該發展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?”
歐洲刑警組織3月27日也發出警告,ChatGPT等人工智能聊天機器人很可能被犯罪分子濫用:“大型語言模型檢測和重現語言模式的能力,不僅有助于網絡釣魚和在線欺詐,還可以用來冒充特定個人或群體的講話風格。”他們的創新實驗室已經組織了多次研討會,探討犯罪分子可能會怎么做,列出了潛在的有害使用方式。
這些簽署者希望,奔向危險的腳步能夠“暫停”,先共同開發出一套用于高級人工智能設計和開發的共享安全協議,并由獨立的外部專家進行嚴格審計和監督。AI開發人員也需要與政策制定者合作,開發強大的AI治理系統。
至少,建立專門負責AI的、有足夠準備和能力的監管機構。
中青報·中青網記者 張渺 來源:中國青年報
來源:中國青年報
關鍵詞:
相關閱讀
- 06-14
最近更新
- 06-14
- 06-14
- 06-14
- 06-14