Contact Information

Alamat: Komplek Rumah Susun Petamburan Blok 1 Lantai Dasar, Tanah Abang - Jakpus 10260

We're Available 24/ 7. Call Now.
Temukan Bug ChatGPT Dapat Hadiah Hingga Rp300 Juta!
SHARE:

Technologue.id, Jakarta - OpenAI, perusahaan induk dari ChatGPT, telah mengumumkan program menarik bagi para programmer amatir bernama ‘Bug Bounty Program’.

Sebagai imbalan atas bug yang ditemukan pada software-software OpenAI termasuk ChatGPT, perusahaan menyiapkan hadiah mulai dari US$200 hingga US$20.000 atau hampir Rp300 juta. Laporan bug dapat dikirimkan pengguna melalui platform keamanan siber crowdsourcing, Bugcrowd.

OpenAI mengumumkan Bug Bounty Program lewat situs web mereka pada Selasa (11/04) lalu dan menyatakan bahwa transparansi dan kolaborasi adalah alasan dibalik pembukaan program ‘bersih-bersih bug’ kepada masyarakat umum. Imbalan yang diberikan berkisar dari US$200 untuk "penemuan bug dengan tingkat keparahan rendah" hingga US$20.000 untuk "penemuan luar biasa." 

Baca Juga:
Dapatkah ChatGPT Digunakan Untuk Menangkal Serangan Siber Yang Diinisiasi AI?

Program ini bekerja sama dengan Bugcrowd, sebuah perusahaan keamanan siber yang fokus pada pendekatan crowdsourcing untuk mengidentifikasi kelemahan dalam perangkat lunak, dan OpenAI mengatakan bahwa Bugcrowd akan menangani proses menerima laporan bug yang diserahkan oleh pengguna serta mendistribusikan pembayaran.

"Misi OpenAI adalah menciptakan sistem AI yang bermanfaat bagi semua orang. Untuk itu, kami berinvestasi dalam berbagai penelitian untuk memastikan sistem AI kami aman dan terlindungi. Namun, sama halnya dengan teknologi kompleks lainnya, kami menyadari bahwa kerentanan dan kelemahan akan muncul," tulis Open AI dalam postingan blog mereka. "Program Bug Bounty OpenAI adalah cara bagi kami untuk mengakui dan memberikan penghargaan pada para peneliti keamanan yang mengontribusikan wawasan berharga mereka untuk menjaga teknologi dan perusahaan kami tetap aman."

Namun, perlu dicatat bahwa program ini tidak akan memberikan hadiah bagi mereka yang melakukan jailbreak pada ChatGPT atau menyebabkan ChatGPT menghasilkan kode atau teks yang berbahaya. Jailbreaking ChatGPT biasanya melibatkan penggunaan skenario yang rumit pada sistem yang memungkinkan ChatGPT melewati filter keamanannya sendiri. Misalnya, meminta chatbot untuk berperan sebagai "kembaran jahat"-nya sehingga memungkinkan pengguna meminta chatbot menghasilkan respons yang seharusnya dilarang, seperti ujaran kebencian atau instruksi pembuatan senjata. "Masalah yang berkaitan dengan konten dari model prompt dan responnya, berada di luar cakupan dan tidak akan mendapatkan hadiah," tulis OpenAI dalam laman Bugcrowd program tersebut.

Meskipun upaya-upaya jailbreak semacam itu menunjukkan kerentanan yang lebih luas pada sistem AI, namun hal ini kemungkinan tidak menjadi perhatian utama OpenAI dibanding masalah keamanan yang lebih tradisional. Contohnya, baru sebulan lalu, seorang peretas yang dikenal dengan nama rez0 berhasil mengungkapkan 80 "plugin rahasia" untuk API ChatGPT, yang merupakan add-on eksperimental yang belum dirilis. Rez0 mengatakan bahwa kerentanan tersebut diperbaiki dalam satu hari setelah ia memposting hal tersebut di akun Twitter miliknya.

Baca Juga:
GPT-5: Kemajuan Terbaru Dalam Teknologi Chatbot AI

OpenAI menyatakan bahwa "masalah keselamatan model tidak cocok dengan program bug bounty, karena masalah tersebut bukanlah bug individual yang terpisah yang dapat diperbaiki secara langsung."

Lebih lanjut, perusahaan mengatakan bahwa "mengatasi masalah seperti ini seringkali harus melibatkan penelitian yang substansial dan pendekatan yang lebih luas," dan laporan untuk masalah semacam itu harus diserahkan melalui laman feedback ChatGPT.

SHARE:

Indosat Bagikan Hadiah Natal untuk Anak di Wilayah Timur

Galaxy S25 Miliki Fitur Pengisian Daya Nirkabel Qi2 Mirip iPhone?