Marak Foto Diedit Jadi Video AI Pornografi, Kasus Terbaru di SMAN 11 Semarang

Kamila Meilina
16 Oktober 2025, 16:28
sman 11 semarang, video ai, deepfake,
Shutterstock
Ilustrasi deepfake
Button AI SummarizeMembuat ringkasan dengan AI

Marak foto diedit menjadi foto editan maupun video AI bernuansa pornografi menggunakan platform kecerdasan buatan. Yang terbaru, siswa hingga guru di SMAN 11 Semarang menjadi korban.

Seorang mahasiswa bernama Chiko mengaku ia mengedit foto siswa dan guru di SMAN 11 Semarang menjadi gambar maupun video AI yang tidak senonoh.

“Saya telah mengedit dan mengunggah foto maupun video teman-teman tanpa izin, lewat akun X. Saya menyadari hal ini menimbulkan dampak negatif terhadap SMAN 11 Semarang,” kata dia dikutip dari unggahan video di akun Instagram @sman11semarang.official, Selasa (14/10).

Ia meminta maaf kepada pihak SMAN 11 Semarang dan berjanji tidak akan mengulang tindakan serupa. “Pembuatan video dengan judul Skandal Smanse itu tidak benar- benar ada. Ini hanya editan menggunakan aplikasi AI,” kata dia.

Katadata.co.id mengonfirmasi kasus tersebut kepada Direktur Jenderal Pengawasan Ruang Digital Kementerian Komunikasi dan Digital alias Komdigi Alexander Sabar, namun belum ada tanggapan.

Ini bukan pertama kalinya kasus edit foto dan video AI bernuansa pornografi. Pada April, Rektorat Universitas Udayana melakukan investigasi kasus dugaan pelecehan seksual dengan membuat konten porno deepfake yang melibatkan seorang mahasiswa berinisial SLKD.

Pada Agustus, sejumlah siswi SMA di Kota Cirebon menjadi korban edit foto AI bernuansa pornografi.

Perlu Alat Identifikasi Video AI

Wakil Menteri Komdigi Nezar Patria mencatat peredaran video deepfake meningkat 550% dalam lima tahun terakhir, merujuk pada Data Sensity AI.

“Saya yakin jumlahnya jauh lebih besar karena kemampuan aplikasi untuk membuat video atau foto deepfake kini sangat masif,” kata Nezar dalam Talkshow Bentara Nusantara bertajuk Urun Daya Tangkal Hoax dan Deepfake AI di kantor RRI, Jakarta, Selasa, dikutip dari siaran pers, pada September.

Oleh karena itu, ia meminta platform digital global seperti Google dan TikTok menghadirkan fitur pengecekan foto maupun video AI. Hal ini untuk membantu masyarakat menangkal hoaks dan deepfake.

“Kami berharap platform media sosial global bisa melakukan filter, atau setidaknya menyediakan fitur untuk mengecek apakah suatu konten buatan AI atau bukan. Fitur ini sebaiknya bisa digunakan publik secara gratis,” kata Nezar.

Nezar menekankan pemerintah berupaya menyeimbangkan inovasi dengan regulasi agar pemanfaatan AI tidak disalahgunakan sebagai alat pembuat konten hoaks.

Indonesia sudah memiliki perangkat hukum seperti UU ITE, UU PDP, PP GTunas, dan sejumlah peraturan teknis. Saat ini, pemerintah menyiapkan regulasi khusus pemanfaatan AI yang etis, bermakna, dan bertanggung jawab.

Selain regulasi, Kementerian Komdigi menggandeng ekosistem luas, termasuk Mafindo dan media, dalam program cek fakta.

“Ruang digital ini milik kita bersama, maka kita perlu kerja sama yang erat untuk menjaga publik dari hoaks dan konten negatif,” ujar Nezar Patria.

Ketua Mafindo Septiaji Eko Nugroho menyatakan fenomena deepfake pertama kali muncul di Indonesia pada 2023 dan semakin berkembang pesat saat ini.

Konten deepfake kerap disalahgunakan untuk melakukan penipuan digital dan menggiring opini publik, terutama pada isu-isu politik.

“Untuk isu politik juga ada tapi deepfake. Paling banyak digunakan untuk penipuan digital. Kalau ada konten hoaks bentuknya video yang muncul pada 2025 dengan tema penipuan digital, itu mayoritas adalah deepfake,” kata dia.

Baca artikel ini lewat aplikasi mobile.

Dapatkan pengalaman membaca lebih nyaman dan nikmati fitur menarik lainnya lewat aplikasi mobile Katadata.

mobile apps preview
Reporter: Kamila Meilina

Cek juga data ini

Artikel Terkait

Video Pilihan
Loading...