
Beberapa alat kloning suara populer di pasar tidak memiliki langkah keamanan yang 'sadar' untuk mencegah penipuan atau penyalahgunaan, menurut sebuah studi baru dari Consumer Reports.
Consumer Reports menyelidiki produk kloning suara dari enam perusahaan - Descript, ElevenLabs, Lovo, PlayHT, Resemble AI, dan Speechify - untuk mekanisme yang mungkin menjadikannya lebih sulit bagi pengguna jahat untuk mengkloning suara seseorang tanpa izin mereka. Publikasi menemukan bahwa hanya dua, Descript dan Resemble AI, mengambil langkah-langkah untuk melawan penyalahgunaan. Yang lain hanya memerlukan pengguna untuk mencentang kotak mengkonfirmasi bahwa mereka memiliki hak hukum untuk mengkloning suara atau membuat pernyataan serupa tentang diri mereka sendiri.
Grace Gedye, analis kebijakan di Consumer Reports, mengatakan bahwa alat kloning suara AI memiliki potensi untuk "mempercepat" penipuan kepalsuan jika tindakan keamanan yang memadai tidak diterapkan. "Penilaian kami menunjukkan bahwa ada langkah dasar yang dapat dilakukan perusahaan untuk membuat lebih sulit untuk mengkloning suara seseorang tanpa pengetahuan mereka - tetapi beberapa perusahaan tidak melakukannya," kata Gedye dalam sebuah pernyataan.