女子地鐵內“裸照”被瘋傳?網友:科技不該用在這上面
3月28日
#女子地鐵照被AI一鍵脫衣傳播#
衝上熱搜
新聞晨報,讚1208
據報導,近日,廣東廣州一女子在地鐵上的照片被AI一鍵脫衣,造謠圖在網絡廣泛傳播引發關注。
事實上,照片的女主角是小紅書的一名博主,而所謂的“裸照”則是她去年7月在平台分享的一張照片。原圖中她衣著正常,完全沒有任何不妥之處,但卻被有心之人用AI軟件一鍵脫衣,故意全網散播。
目前博主已在評論區回覆各位網友,稱會進行相關的維權處理。
在這則圖文分享的評論區
已經有眾多網友評論提醒博主,
催促其盡快報警,
也有人熱心地幫助其闢謠澄清。
AI換臉換裝,或涉嫌刑事犯罪
近年來,“AI換臉”走紅網絡,一些“AI換臉”的App使用明星的圖片製作換臉視頻進行推廣,其趣味性背後暗藏不少法律風險和侵權糾紛。
明星劉昊然就曾在2021年8月26日發博打假,控訴網上流傳的某淫穢視頻為AI換臉技術偽造,並向警方報案。
此前一網紅特效合成師利用電腦後期製作,合成與某知名女星親吻的影片在網上傳播,這很容易讓人認為AI合成的內容就是真實發生的,從而產生很嚴重的風險和侵害。
專家表示,在《網絡安全法》第二十七條的規定當中,特別強調,明知他人實施危害網絡安全活動的,不能夠為他提供技術支持,如果情節嚴重,還會構成幫助信息網絡犯罪活動罪等刑事犯罪。
今年1月10日開始施行的《互聯網信息服務深度合成管理規定》中也提出,要對深度合成技術應用提出規範。
中國青年報(ID:zqbcyol 整理:張小鬆)綜合新聞晨報、涇渭視頻、央視網、網友評論。