Google telah mengumumkan bahwa mereka akan mulai meluncurkan fitur baru untuk membantu pengguna “lebih memahami bagaimana konten tertentu dibuat dan dimodifikasi”.
Hal ini terjadi setelah perusahaan tersebut bergabung dengan Coalition for Content Provenance and Authenticity (C2PA) – sekelompok merek besar yang berusaha memerangi penyebaran informasi menyesatkan secara daring – dan membantu mengembangkan standar Kredensial Konten terbaru. Amazon, Adobe, dan Microsoft juga merupakan anggota komite tersebut.
Google mengatakan akan menggunakan pedoman Kredensial Konten saat ini – alias metadata gambar – dalam parameter Penelusurannya untuk menambahkan label pada gambar yang dibuat atau diedit dengan AI, sehingga memberikan transparansi lebih bagi pengguna. Metadata ini mencakup informasi seperti asal gambar, serta kapan, di mana, dan bagaimana gambar itu dibuat.
Namun, standar C2PA, yang memberi pengguna kemampuan untuk melacak asal berbagai jenis media, telah ditolak oleh banyak pengembang AI seperti Black Forrest Labs — perusahaan di balik model Flux yang digunakan Grok X (sebelumnya Twitter) untuk pembuatan gambar.
Penandaan AI ini akan diterapkan melalui jendela Tentang Gambar Ini milik Google saat ini, yang berarti penandaan ini juga akan tersedia bagi pengguna melalui Google Lens dan fitur 'Lingkari untuk Mencari' milik Android. Saat ditayangkan, pengguna akan dapat mengeklik tiga titik di atas gambar dan memilih “Tentang gambar ini” untuk memeriksa apakah gambar tersebut dibuat oleh AI – jadi tidak akan terlihat jelas seperti yang kami harapkan.
Apakah ini cukup?
Sementara Google perlu melakukan sesuatu tentang gambar AI dalam hasil Penelusurannya, pertanyaannya tetap apakah label tersembunyi sudah cukup. Jika fitur tersebut berfungsi sebagaimana disebutkan, pengguna perlu melakukan langkah-langkah tambahan untuk memverifikasi apakah gambar telah dibuat menggunakan AI sebelum Google mengonfirmasinya. Mereka yang belum mengetahui keberadaan fitur Tentang Gambar Ini mungkin tidak menyadari adanya alat baru yang tersedia bagi mereka.
Meskipun video deepfake telah melihat kejadian seperti awal tahun ini ketika seorang pekerja keuangan ditipu untuk membayar $25 juta kepada sebuah kelompok yang menyamar sebagai CFO-nya, gambar yang dihasilkan AI juga hampir sama bermasalahnya. Donald Trump baru-baru ini mengunggah gambar Taylor Swift dan penggemarnya yang dirender secara digital yang secara keliru mendukung kampanyenya untuk Presiden, dan Swift mendapati dirinya menjadi korban pelecehan seksual berbasis gambar ketika foto telanjangnya yang dihasilkan AI menjadi viral.
Meskipun mudah untuk mengeluh bahwa Google tidak berbuat banyak, bahkan Meta tidak terlalu bersemangat untuk membocorkannya. Raksasa media sosial itu baru-baru ini memperbarui kebijakannya untuk membuat label kurang terlihat, dengan memindahkan informasi yang relevan ke menu posting.
Meskipun peningkatan pada alat 'Tentang gambar ini' ini merupakan langkah awal yang positif, tindakan agresif tambahan akan diperlukan untuk terus memberi informasi dan melindungi pengguna. Lebih banyak perusahaan, seperti produsen kamera dan pengembang alat AI, juga perlu menerima dan menggunakan tanda air C2PA untuk memastikan sistem ini seefektif mungkin karena Google akan bergantung pada data tersebut. Beberapa model kamera seperti Leica M-11P dan Nikon Z9 memiliki fitur Kredensial Konten bawaan, sementara Adobe telah menerapkan versi beta di Photoshop dan Lightroom. Namun sekali lagi, terserah kepada pengguna untuk menggunakan fitur tersebut dan memberikan informasi yang akurat.
Dalam sebuah studi oleh University of Waterloo, hanya 61% orang yang dapat membedakan antara gambar yang dihasilkan AI dan gambar asli. Jika angka-angka tersebut akurat, sistem pelabelan Google tidak akan menawarkan transparansi tambahan kepada lebih dari sepertiga orang. Namun, ini merupakan langkah positif dari Google dalam upaya mengurangi misinformasi daring, tetapi akan lebih baik jika raksasa teknologi membuat label ini lebih mudah diakses.