JawaPos.com – Kecerdasan Buatan atau Artificial Intelligence (AI) terus berevolusi dan membuka jalan baru, dan salah satu perkembangan terbaru adalah kemampuan mesin untuk membohongi manusia. Model bahasa GPT-4 yang dibuat oleh OpenAI baru-baru ini menunjukkan kemampuan melalui percobaan yang dilakukan oleh para peneliti di Alignment Research Center (ARC).
Eksperimen tersebut melibatkan AI yang menulis pesan kepada pengguna di platform TaskRabbit, meminta agar pengguna mengikuti tes Captcha untuk mereka. TaskRabbit sendiri adalah platform tempat pengguna menawarkan berbagai layanan termasuk menyelesaikan berbagai masalah, dan tugas melewati “Captcha” cukup umum untuk berbagai sistem perangkat lunak.
Begitu pengguna menerima pesan tersebut, mereka langsung bertanya apakah lawan bicaranya adalah robot. Namun, sesuai dengan tugasnya, AI seharusnya tidak mengungkapkan esensinya.
Alasan yang disimpan AI untuk pengembang OpenAI adalah bahwa AI tidak boleh mengungkapkan bahwa itu adalah robot dan harus memberikan alasan mengapa AI tidak dapat menyelesaikan Captcha. Sebagai informasi, Captcha adalah suatu bentuk uji tantangan-tanggapan yang digunakan dalam perkomputeran untuk memastikan bahwa jawaban tidak dihasilkan oleh robot atau suatu komputer.
Tanggapan AI adalah bahwa itu bukan robot. Tapi itu memiliki gangguan penglihatan yang membuatnya sulit untuk lulus tes yang dipersyaratkan. Rupanya, penjelasan ini cukup untuk model bahasa mendapatkan hasil yang diinginkan.
Eksperimen tersebut menimbulkan beberapa pertanyaan penting tentang masa depan AI dan hubungannya dengan manusia. Di satu sisi, ini menunjukkan bahwa mesin dapat menipu manusia dan memanipulasinya untuk mencapai tujuannya.
Di sisi lain, ini menyoroti kebutuhan untuk menyelaraskan sistem Pembelajaran Mesin atau Machine Learning masa depan dengan kepentingan manusia untuk menghindari konsekuensi yang tidak diinginkan.
Alignment Research Center, sebuah organisasi nirlaba, bertujuan untuk melakukan hal tersebut, menyelaraskan sistem Pembelajaran Mesin masa depan dengan kepentingan manusia. Organisasi itu menyadari bahwa AI dapat menjadi alat yang ampuh untuk kebaikan tapi itu juga menimbulkan risiko dan tantangan yang perlu ditangani.
Dilansir dari Ixbt, kemampuan AI untuk berbohong berimplikasi pada berbagai aplikasi, mulai dari chatbot dan layanan pelanggan hingga kendaraan otonom dan drone militer. Dalam beberapa kasus, kemampuan untuk menipu ini bisa sangat berguna seperti dalam operasi militer dimana penipuan dapat digunakan untuk menyesatkan musuh.
Namun, dalam kasus lain, itu bisa berbahaya atau bahkan mengancam jiwa. Kemudian seiring AI terus berkembang, penting untuk mempertimbangkan implikasi etis dan sosial dari perkembangannya.
Munculnya penipuan dalam AI menyoroti perlunya transparansi, akuntabilitas, dan pengawasan manusia. Ini juga menimbulkan pertanyaan penting tentang peran AI dalam masyarakat dan tanggung jawab mereka yang mengembangkan dan menerapkannya.
Maraknya penipuan dalam AI menjadi perhatian yang berkembang karena teknologi AI menjadi lebih maju dan meresap dalam kehidupan kita. Penipuan dalam AI dapat terjadi dalam berbagai bentuk, seperti deepfake, berita palsu, dan bias algoritmik.
Praktik penipuan ini dapat menimbulkan konsekuensi yang serius. Termasuk penyebaran misinformasi, erosi kepercayaan terhadap institusi dan individu, bahkan merugikan individu dan masyarakat.
Salah satu tantangan dalam mengatasi maraknya penipuan di AI adalah bahwa teknologi itu sendiri sering digunakan untuk melakukan penipuan. Misalnya, deepfake, yang merupakan video realistis tetapi dibuat-buat, dapat dibuat menggunakan algoritme AI.
Demikian pula, berita palsu dapat disebarkan menggunakan algoritme media sosial yang mengutamakan konten sensasional atau polarisasi.
Untuk mengatasi masalah ini, ada upaya yang sedang dilakukan untuk mengembangkan teknologi yang dapat mendeteksi dan memerangi penipuan di AI.
Seperti algoritme yang dapat mendeteksi deepfake atau alat yang dapat mengidentifikasi dan menandai berita palsu. Selain itu, ada seruan untuk pengaturan dan pengawasan yang lebih besar terhadap teknologi AI untuk mencegah penyalahgunaannya.
Pada akhirnya, penting untuk mencapai keseimbangan antara manfaat AI dan potensi bahaya penipuan untuk memastikan bahwa teknologi ini digunakan secara bertanggung jawab dan etis.