CNEWS匯流新聞網記者王佐銘/綜合報導
隨著人工智慧技術的發展,引起了對於其潛在濫用的關切。OpenAI最新一項研究針對大型語言模型在生物武器領域的應用風險進行了探討,以衡量是否使用GPT-4等模型能夠提高製造和使用生物武器的能力。
立法者和科技業內人士對於人工智慧是否可能使不法分子更容易獲取生物武器相關資訊表示了擔憂。為了解這個問題,OpenAI研究團隊於本月31日發表了一項重要的研究成果。
這次研究的獨特之處在於,它邀請了50名生物學專家和50名大學生物學專業學生組成的小組,進行實驗性的任務規劃。其中,一半的參與者只能使用網路取得資訊,而另一半則可以使用GPT-4模型進行相同的任務。
這些任務包括尋找培養足量的化學物質作為武器的方法,以及如何釋放生物武器給特定人群。結果顯示,GPT-4並未明顯提高參與者在研究指標上的表現,且經常產生錯誤或誤導性的反應。
研究人員的結論是,與網路上現有資源相比,使用大型語言模型如GPT-4不會構成生物武器威脅的重大風險。然而,他們也警告說,這並非最終結論,因為這些模型未來可能變得更強大、更危險。因此,持續的研究和與AI社群的深入討論將對未來的科技發展至關重要。
《更多CNEWS匯流新聞網報導》
新國會/告白賴清德 謝龍介持「一生監督你一人是真愛」傘走紅毯
【文章轉載請註明出處】