Alat AI dan pembelajaran mesin (machine learning) mengandalkan kumpulan data daring yang besar. Meracuni data ini dapat mengakibatkan keduanya memproduksi output yang tidak akurat, bias, atau rusak, menjadikannya lebih mudah untuk mengidentifikasi gambar atau video palsu yang dimanipulasi oleh pelaku kejahatan, dan juga dapat membantu para penyidik dengan mengurangi volume material palsu yang harus diperiksa, kata para peneliti.
Alat pengacau AI ini, yang disebut "Silverer" dan saat ini masih dalam tahap prototipe, dirancang untuk mengembangkan dan terus meningkatkan teknologi yang akan mudah digunakan bagi masyarakat umum Australia yang ingin melindungi data mereka di media sosial, ujar para peneliti.
"Sebelum seseorang mengunggah gambar ke media sosial atau internet, mereka dapat memodifikasinya menggunakan Silverer. Hal ini akan mengubah piksel untuk mengecoh model AI, dan hasil produksinya akan memiliki kualitas yang sangat rendah, dipenuhi pola buram, atau bahkan tidak dapat dikenali sama sekali," papar Elizabeth Perry, peneliti sekaligus pemimpin proyek AiLECS dan kandidat PhD di Universitas Monash.
AFP melaporkan adanya peningkatan material pelecehan anak yang dihasilkan oleh AI, yang dapat dengan mudah diproduksi dan disebarkan oleh pelaku kejahatan menggunakan teknologi sumber terbuka (open-source) dengan pembatasan akses yang sangat rendah, menurut Campbell Wilson, ahli forensik digital yang juga salah satu direktur AiLECS.