科技觀察|AI使造謠變得越來越容易?科技的邊界也需法律來明確
分類: 最新資訊
說說詞典
編輯 : 大寶123
發布 : 04-07
閱讀 :146
來源:封面新聞封面新聞記者 邊雪AI繪畫,AI視頻,AI對話……在AI正加速滲透現代人的生活的當下,以DALL-E、Midjourney和Stable Diffusion等AI圖像生成器,或Bard、ChatGPT、Chinchilla和LLaMA等生成式 AI,正迎來裂變式增長的用戶。通過將智能的機器學習算法與數十億條人類生成的內容相結合,這些系統似乎可以做任何事情:從根據字幕創建一個極度逼真的圖像,或是通過已公開的用戶照片合成一張新的自拍照,用視頻中的一個人的肖像替換另一個人也只需要動動手指。在這個由AI構成的“新世界”中,生成式AI創建的內容高度逼真,普通人越來越難準確區分真人和 AI 生成內容,偽造、扭曲現實、造謠將變得越來越容易,有圖也不是真相,有視頻可能也不是真相——它們需要先證明自己是真的才行。Midjourney 生成的災難現場照片。只需幾十張照片,AI就能精準復制出你的樣子人工智能技術日益發展,深偽技術(deepfake,即基于人工智能的人體圖像合成技術)也在人們生活中更加常見,而且更常被濫用。最近,喜歡拍照的王洛奇(化名)迷上了AI寫真。“給自己拍照,老公怎么訓練也練不出來,自從用上了AI生成軟件,‘喂了’大概50張自己之前拍過的照片,并根據這些照片訓練lora模型后,寫真再也不愁沒有好的攝影師拍了。”王洛奇告訴封面新聞記者,使用AI生成的寫真,相似度應該在95%以上。“我拿了一張AI生成的寫真去問了女兒照片中的人是誰?孩子表示這就是媽媽呀,還問我什么時候拍的。”因為在王洛奇進行AI寫真訓練時,使用的照片大多是在泰國旅行時拍的,還有幾張穿泰服的,結果AI生成的寫真極具異域色彩。“我嘗試了用AI生成點賽博朋克風的照片,都是泰里泰氣的,充滿異域感的賽博朋克風。”當被問到AI生成的照片是否有明顯的缺點時,王洛奇想了想告訴封面新聞記者:“其實AI寫真的近景和中景都很無敵了,要非說缺點,就是遠景的全身照臉部會有點垮,不知道是不是訓練素材數量不太夠還是生成照片的像素太低導致的。”制作真實人物的虛假視頻技術正變得越來越容易獲得。生成人工智能的進步將很快意味著,虛假但視覺上令人信服的內容將在網上激增,從而導致信息生態系統更加混亂。近日,一位女網友在網上曬出自己在地鐵列車的照片被別有用心的網友下載,并用AI技術“一鍵脫衣”,造謠圖隨后在網上廣泛傳播。此事引發網友關注并沖上熱搜。事實上,照片的女主角是一名博主,所謂的“裸照”是她去年7月在某平臺分享的一張照片。原圖中她衣著正常,沒有任何不妥之處,但被人用AI軟件一鍵脫衣,故意全網散播。但更嚴重的是,如果AIGC內容不斷訓練后,將能夠輕松地將視頻或圖片視為雖然虛假但難以分辨的偽證,來損害當事人的利益和名譽。該名小紅書博主發布穿著正常體恤和短褲的照片,卻被人用AI軟件“一鍵脫衣”并且將照片在網絡上瘋傳。AI時代,加水印能保護用戶隱私嗎?據外媒報道,在 Dall-E 生成的特朗普被捕的假照片病毒式傳播后,專門研究圖像取證的計算機科學家、伯克利計算機科學教授Hany Farid主張對 AI 圖像進行視覺指定:是時候該給這些數字照片貼上可識別的標簽。當社會關注聚焦于生成人工智能將如何進步,有合理且技術上可行的干預措施可減輕AI工具的濫用。Hany Farid在接受記者采訪時表示:“我認為解決這個問題的有效方法之一,就是添加水印。”標記文件和其他物品以證明其真實性、表明所有權和反偽造的歷史由來已久。以龐大的圖像檔案庫Getty Images為例,Getty Images為其目錄中的所有數字圖像添加了可見水印,允許客戶在保護公司資產的同時自由瀏覽圖像。不可察覺的數字水印也可用于數字版權管理,將水印添加到數字圖像中。例如,每次調整第10個圖像像素,使其顏色(通常是 0 到 255 范圍內的數字)為偶值。因為這種像素調整非常小,所以水印是難以察覺的。由于這種周期性模式不太可能自然發生,而且很容易驗證,因此可用于驗證圖像的來源。即使是中等分辨率的圖像也包含數百萬像素,這意味著可以將附加信息嵌入到水印中,包括對生成軟件進行編碼的唯一標識符和用戶 ID,值得注意的是,這種相同類型的水印可以應用于音頻和視頻。理想的水印是不易察覺的,并且對裁剪、調整大小、顏色調整和轉換數字格式等簡單操作也有彈性,這些水印可以通過在所有訓練數據上添加,并被拷貝到生成人工智能系統中,這樣在該軟件上生成的內容將包含相同的水印。根據OpenAI 公開發布的內容顯示,該公司正在試驗一個系統來為ChatGPT 的創作添加水印,但段落中的字符不能像數值那樣進行調整,因此文本水印采用不同的形式。基于文本的生成式AI是基于生成句子中產生下一個最合理的單詞。例如,從“一個AI系統可以……”這個句子片段開始,ChatGPT將預測下一個單詞應該是“學習”“預測”或“理解”。與這些單詞相對應出現在下一個句子中出現的單詞的可能性是有一定概率的。ChatGPT從它所訓練的大量文本中學習這些概率。生成的文本可以通過秘密地標記單詞子集,然后將一個單詞的選擇偏向于同義詞標記單詞來標記水印。例如,可以使用帶標簽的單詞“領悟”來代替“理解”。通過以這種方式定期選擇偏置的單詞,基于標記單詞的特定分布為文本體加水印。海外社交平臺截圖。科技的邊界也需法來明確高水準“AI畫師”Stable Diffusion曾為自己設置了一個Safety Checker,這是一個自動審核圖片安全性的程序,一旦監測到生成的圖像涉嫌違規,即它在內容政策里寫明的不得用來生成的“引人不適的、色情、仇恨、暴力等圖像”,機器就會攔下這張圖片。但開元的Stable Diffusion可以通過用戶調節來管邊自動審核功能,在關閉該功能之后,任何可能涉及仇恨、暴力、色情的描述違禁詞都可以被作為生成照片的描述。據外媒報道,旨在創建媒體認證標準的協作項目的內容來源和認證聯盟(以下簡稱:C2PA) ,最近發布了一個開放規范來支持視聽內容可以被驗證為人工生成。隨著 Adobe、微軟、英特爾、BBC 等多家技術公司加入這項工作,C2PA 已做好充分準備,以生產有效且廣泛部署的身份驗證技術。對人類生成的內容和人工智能生成的內容進行聯合簽名和水印處理,雖然不能防止一切形式的濫用,但可以提供一定程度的保護。任何安全措施都必須不斷調整和完善,因為“對手”會找到將最新技術武器化的新方法。近日,江蘇首例“人臉解封”侵犯公民個人信息案公開審理,鄭某在被害人不知情的情況下從他人處購買包含姓名、身份證號碼、照片、視頻等個人信息然后操作圖片形成動態視頻來進行人臉核驗解封他人賬號,幫助詐騙團伙實施犯罪。被告人鄭某因犯侵犯公民個人信息罪被判有期徒刑八個月,緩刑一年,并處罰金人民幣40000元,作案工具予以沒收。該案目前已生效。法官指出,侵犯公民個人信息犯罪是互聯網黑灰產業鏈的上游犯罪,其直接侵害的是公民的隱私及信息安全,行為涉及面廣、危害嚴重。此外,購買或下載非官方授權或當事人同意的個人信息文件后,在微信群等社交媒體上進行轉載、傳播,亦會侵犯公民隱私權甚至涉嫌違法犯罪。所以廣大市民在看到相關涉及公民個人信息的名單時,不能進行轉載、傳播,亦應及時提醒親戚朋友刪除,避免二次傳播給涉事公民造成更嚴重侵害。“要遏制AI合成的亂象,得政府監管部門、平臺、網民多方形成合力,多管齊下,一個都不能少。”北京航空航天大學法學院副教授、北京科技創新中心研究基地副主任趙精武曾表示,作為服務的提供者,AI合成平臺必須承擔主體責任。《互聯網信息服務深度合成管理規定》對AI合成的服務提供方作出了多項規定,比如,AI合成平臺必須要求內容創作者實名認證,監督創作者標明“這是由AI合成”之類的標識,以免誤導公眾;在提供“換臉”技術前,應該征得“被換臉”者的同意;并完善數據管理、保障個人信息安全。《互聯網信息服務深度合成管理規定》要求深度合成服務提供者和技術支持者加強訓練數據管理和技術管理。如同垃圾郵件、釣魚網站伴隨著互聯網的誕生而難以清除,在AIGC逐漸普及的當下,抵御在使用生成AI的各種形式的濫用,何為現實何為AI生成的“真假之辯”,似乎也是一場“持久戰”。
追覓科技發布兩款機器人產品:通用人形機器人和仿生四足機器狗EameOne二代