通信界訊 據(jù)《自然》雜志報(bào)道,上周,美國(guó)知名好萊塢女星斯嘉麗·約翰遜(Scarlett Johansson)抱怨OpenAI的一個(gè)聊天機(jī)器人的聲音聽(tīng)起來(lái)很像她,引發(fā)了一場(chǎng)風(fēng)波。事實(shí)上,這并不是她的聲音——OpenAI使用別人的聲音合成了它。然而,出于對(duì)約翰遜擔(dān)憂的尊重,OpenAI暫停了該聲音。但這一事件引發(fā)了關(guān)于個(gè)人權(quán)利的更廣泛討論。在生成式人工智能(GenAI)時(shí)代,現(xiàn)有的法律是否足以保護(hù)個(gè)人的外貌和聲音的使用?這個(gè)問(wèn)題的答案并不總是明確的。
GenAI可以輕松克隆聲音或面部,創(chuàng)建深度偽造,即通過(guò)數(shù)字技術(shù)模仿一個(gè)人的樣貌。人們通常為了娛樂(lè)、教育或研究而進(jìn)行深度偽造。然而,它們也被用來(lái)散布虛假信息,試圖影響選舉,制造未經(jīng)同意的色情圖像或進(jìn)行詐騙。
許多國(guó)家都有法律防止這些有害和惡意的活動(dòng),無(wú)論它們是否涉及人工智能。但在具體保護(hù)一個(gè)角色時(shí),現(xiàn)有的法律可能不足。
各大科技公司也制定了政策,幫助防止GenAI技術(shù)的濫用,一些公司則在尋求技術(shù)手段來(lái)遏制這種濫用。
但也有人擔(dān)心,如果相關(guān)法律太嚴(yán)格,就限制了自由表達(dá)。