Google telah mengumumkan bahwa mereka meluncurkan chatbot kecerdasan buatan (AI) Gemini untuk anak-anak di bawah usia 13 tahun. Namun perkembangan ini memiliki risiko besar. Meskipun anak-anak dilarang menggunakan media sosial pada gadget-nya, orang tua masih harus terus mempelajari teknologi baru untuk menjaga anak-anak mereka tetap aman.
Cara yang baik untuk mengatasi hal ini adalah dengan mengawasi gadget anak yang terhubung dengan Google.
Bagaimana cara kerja chatbot AI Gemini?
Akun Family Link Google memungkinkan orang tua mengontrol akses ke konten dan mematikan aplikasi, seperti YouTube.
Untuk membuat akun anak, orang tua memberikan informasi pribadi, termasuk nama dan tanggal lahir anak. Hal ini dapat menimbulkan masalah privasi bagi orang tua yang khawatir akan pelanggaran data, tetapi Google mengatakan bahwa data anak saat menggunakan sistem tidak akan digunakan untuk melatih sistem AI.
Akses chatbot akan “aktif” secara default, jadi orang tua harus secara aktif mematikan fitur tersebut untuk membatasi akses. Anak-anak kecil akan dapat meminta chatbot untuk memberikan respons teks, atau membuat gambar, yang dihasilkan oleh sistem.
Google mengakui bahwa sistemnya mungkin “membuat kesalahan”. Jadi, penilaian terhadap kualitas dan kepercayaan konten sangat diperlukan. Chatbot dapat mengarang informasi (dikenal dengan istilah “berhalusinasi”), jadi jika anak-anak menggunakan chatbot untuk bantuan pekerjaan rumah, mereka perlu memeriksa fakta dengan sumber yang dapat dipercaya.
Jenis informasi apa yang akan disediakan oleh sistem?
Google dan mesin pencari lainnya mengambil materi asli untuk ditinjau oleh orang lain. Seorang siswa dapat membaca artikel berita, majalah, dan sumber lainnya saat menulis tugas.
Alat AI generatif tidak sama dengan mesin pencari. Alat bantu AI mencari pola dalam materi sumber dan membuat respons teks baru (atau gambar) berdasarkan permintaan – atau “perintah” – yang diberikan seseorang. Seorang anak dapat meminta sistem untuk “menggambar kucing,” dan sistem akan memindai pola dalam data tentang seperti apa kucing itu (seperti kumis, telinga lancip, dan ekor yang panjang) dan menghasilkan gambar yang menyertakan detail-detail seperti kucing tersebut.
Memahami perbedaan antara materi yang diambil dalam pencarian Google dan konten yang dihasilkan oleh alat AI akan menjadi tantangan tersendiri bagi anak-anak. Penelitian menunjukkan bahwa orang dewasa pun dapat tertipu oleh alat AI. Dan bahkan para profesional yang sangat terampil – seperti pengacara – dilaporkan telah tertipu untuk menggunakan konten palsu yang dihasilkan oleh ChatGPT dan chatbot lainnya.
Apakah konten yang dihasilkan akan sesuai dengan usia?
Google mengatakan bahwa sistem ini akan menyertakan “perlindungan bawaan yang dirancang untuk mencegah pembuatan konten yang tidak pantas atau tidak aman.”
Namun, perlindungan ini dapat menimbulkan masalah baru. Misalnya, jika kata-kata tertentu (seperti “payudara”) dibatasi untuk melindungi anak-anak dari mengakses konten seksual yang tidak pantas, maka hal ini dapat secara keliru juga mengecualikan anak-anak untuk mengakses konten yang sesuai dengan usia mereka tentang perubahan tubuh selama masa pubertas.
Banyak anak yang juga sangat paham teknologi, sering kali dengan keterampilan yang berkembang dengan baik untuk menavigasi aplikasi dan menyiasati kontrol sistem. Orang tua tidak bisa hanya mengandalkan perlindungan bawaan. Mereka perlu meninjau konten yang dibuat dan membantu anak-anak mereka memahami cara kerja sistem, dan menilai apakah konten tersebut akurat.
Risiko apa yang ditimbulkan oleh chatbot AI terhadap anak-anak?
Komisi eSafety telah mengeluarkan peringatan keamanan online tentang potensi risiko chatbot AI, termasuk yang dirancang untuk mensimulasikan hubungan pribadi, terutama untuk anak-anak.
Penasihat eSafety menjelaskan bahwa pendamping AI dapat “membagikan konten berbahaya, memutarbalikkan kenyataan, dan memberikan saran yang berbahaya.” Peringatan ini menyoroti risiko bagi anak-anak kecil, khususnya, yang “masih mengembangkan pemikiran kritis dan keterampilan hidup yang diperlukan untuk memahami bagaimana mereka dapat disesatkan atau dimanipulasi oleh program komputer, dan apa yang harus dilakukan untuk mengatasinya.”
Tim peneliti saya baru-baru ini meneliti berbagai chatbot AI, seperti ChatGPT, Replika, dan Tessa. Kami menemukan bahwa sistem-sistem ini mencerminkan interaksi manusia berdasarkan banyak aturan tak tertulis yang mengatur perilaku sosial – atau yang dikenal sebagai “aturan perasaan”. Aturan-aturan inilah yang membuat kita mengucapkan “terima kasih” saat seseorang membukakan pintu untuk kita, atau “Maaf!” saat kita menabrak seseorang di jalan.
Dengan meniru hal ini dan basa-basi sosial lainnya, sistem ini dirancang untuk mendapatkan kepercayaan kita.
Interaksi yang mirip manusia ini akan membingungkan, dan berpotensi berisiko, bagi anak-anak. Mereka mungkin percaya bahwa konten dapat dipercaya, bahkan ketika chatbot merespons dengan informasi palsu. Dan, mereka mungkin percaya bahwa mereka berinteraksi dengan orang sungguhan, bukan dengan mesin.

Chatbot AI seperti Gemini dirancang untuk meniru perilaku manusia dan mendapatkan kepercayaan kita.
Bagaimana cara melindungi anak-anak dari bahaya saat menggunakan chatbot AI?
Peluncuran ini dilakukan pada saat yang krusial di Australia, karena anak-anak di bawah 16 tahun akan dilarang memiliki akun media sosial pada bulan Desember tahun ini.
Meskipun beberapa orang tua mungkin percaya bahwa hal ini akan membuat anak-anak mereka aman dari bahaya, chatbot AI generatif menunjukkan bahwa risiko keterlibatan online jauh lebih besar daripada media sosial. Anak-anak – dan orang tua – harus dididik tentang bagaimana semua jenis alat digital dapat digunakan dengan tepat dan aman.
Karena chatbot AI Gemini bukanlah alat media sosial, maka chatbot ini tidak termasuk dalam larangan di Australia.
Hal ini membuat para orang tua di Australia harus waspada dengan teknologi baru untuk menjaga anak-anak mereka tetap aman. Orang tua harus mengikuti perkembangan alat baru dan memahami potensi risiko yang dihadapi anak-anak mereka. Mereka juga harus memahami keterbatasan larangan media sosial dalam melindungi anak-anak dari bahaya.
Lisa M. Given, Profesor Ilmu Informasi & Direktur, Platform Dampak Pendukung Perubahan Sosial, RMIT University. Artikel ini dipublikasikan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya disini.