Manyala.co – Otoritas konsumen Belanda, Netherlands Authority for Consumers and Markets (ACM), pada 30 Januari 2026 mengumumkan penyelidikan terhadap platform game daring Roblox. Penyelidikan tersebut difokuskan pada dugaan risiko terhadap keselamatan anak-anak yang menjadi pengguna utama platform tersebut.
ACM menyatakan kekhawatiran bahwa Roblox belum sepenuhnya memberikan perlindungan yang memadai bagi pengguna anak. Dua isu utama yang disorot adalah potensi interaksi anak dengan orang dewasa yang berisiko serta praktik monetisasi dalam gim yang dinilai dapat merugikan pengguna muda.
Penyelidikan ini dilakukan dalam konteks penerapan Digital Services Act (DSA), regulasi baru Uni Eropa yang mewajibkan platform digital menerapkan langkah perlindungan ekstra bagi kelompok rentan, khususnya anak-anak. ACM menyebut proses investigasi diperkirakan berlangsung sekitar satu tahun.
Menurut ACM, Roblox kerap menjadi sorotan karena laporan yang menyebutkan adanya komunikasi antara anak-anak dan orang dewasa yang berpotensi memiliki niat tidak baik. Mengingat basis pengguna Roblox yang mencakup jutaan anak dan remaja, regulator menilai risiko tersebut perlu ditangani secara serius melalui sistem pengawasan dan pengamanan yang efektif.
Selain isu interaksi, ACM juga menyoroti praktik monetisasi dalam platform tersebut. Kekhawatiran muncul terkait desain dan fitur yang dapat mendorong anak-anak melakukan pembelian dalam aplikasi secara impulsif, termasuk melalui penggunaan mata uang virtual, sistem hadiah, serta pembatasan akses yang memicu rasa takut tertinggal atau fear of missing out (FOMO).
ACM menilai kedua isu tersebut cukup signifikan untuk membuka investigasi formal. Berdasarkan DSA, platform digital diwajibkan menerapkan langkah perlindungan yang “tepat dan proporsional” guna meminimalkan risiko terhadap anak-anak. Hingga saat ini, belum ada pernyataan resmi dari Roblox terkait hasil awal penyelidikan tersebut.
Digital Services Act sendiri dirancang untuk meningkatkan keamanan dan transparansi layanan digital di Uni Eropa. Aturan ini memberikan kewenangan kepada regulator nasional untuk menjatuhkan sanksi apabila platform terbukti melanggar kewajiban perlindungan pengguna, termasuk instruksi perbaikan dan denda administratif.
ACM sebelumnya pernah menjatuhkan sanksi terhadap perusahaan gim lain atas pelanggaran serupa. Pada 2024, Epic Games, pengembang Fortnite, dikenai denda sebesar 1,1 juta euro karena dinilai melanggar aturan perlindungan anak dalam mekanisme pembelian di dalam gim.
Sebagai bagian dari upaya meningkatkan keamanan, Roblox pada November 2025 mengumumkan penerapan sistem verifikasi usia menggunakan teknologi pengenalan wajah. Kebijakan tersebut ditujukan untuk membatasi komunikasi antara pengguna di bawah umur dan orang dewasa yang tidak sesuai kategori usia.
Penyelidikan terhadap Roblox mencerminkan meningkatnya tekanan regulator terhadap platform digital yang banyak digunakan anak-anak. Roblox sebelumnya juga menghadapi kritik dan gugatan hukum di beberapa negara, termasuk Amerika Serikat, terkait dugaan kegagalan melindungi anak dari konten berbahaya dan predator daring.
Langkah ACM dinilai menjadi indikator keseriusan Uni Eropa dalam menegakkan DSA. Hasil penyelidikan ini berpotensi memengaruhi kebijakan keamanan Roblox di Eropa dan dapat menjadi rujukan bagi standar perlindungan anak di tingkat global. Hingga Rabu sore, belum ada keputusan atau sanksi yang ditetapkan.
































