AI偽造你聲音,連你爸媽都能騙?為何語音合成詐騙盛行?這是近年第一起利用合成語音詐騙的案例,此技術被稱為「深度聲音」(deepvoice),和深度偽造(deepfake)類似,都是利用深度學習技術習得人類語言/相片中的特徵,接著再製出相似的內容,以假亂真。
中國AI詐騙猖獗 被害人9秒被訛逾千萬 | 兩岸 | 中央社 CNA
中國部落客編程隨想網友譽傳奇 與當局纏鬥12年妻子一無所知 | 兩岸 | 中央社 CNA
中國AI詐騙猖獗 被害人9秒被訛逾千萬 | 兩岸 | 中央社 CNA報導說,這起發生在安徽安慶市安慶經濟開發區的冒充熟人詐騙案,警方調查發現,嫌犯運用一段僅9秒的AI換臉影音佯裝「熟人」,誘使被害人上當。
股海航行靠剁手 on Twitter#抖音 把 [三人成虎] [曾參殺人] 的成語故事化成真實
新‧二七部隊 軍事雜談 (New 27 Brigade)🇹🇼🇺🇦🇮🇱 (@new27brigade) o...認知戰專區
AI合成梅西穿唐裝向中國道歉 小粉紅還幫發誓「以後不去日本」! - 國際 - 自由時報電子報
美國 FCC 研究立法禁止使用 AI 生成聲音進行自動電話騙局剛剛看到新聞再播Ai模仿親人聲音進行詐騙手法