BagusNews.com –
ChatGPT mungkin teknologi terbaru yang keren saat ini, tetapi tidak kebal dari masalah yang dihadapi semua perangkat lunak. Bug dan glitch memengaruhi apa saja yang menggunakan kode, tetapi taruhannya lebih tinggi daripada pengalaman pengguna yang buruk:
Bug yang salah dapat memungkinkan pelaku jahat mengompromikan keamanan pengguna OpenAI, yang dapat sangat berbahaya, mengingat perusahaan itu mencapai 100 juta pengguna aktif pada bulan Januari saja.
OpenAI ingin melakukan sesuatu tentang itu, dan akan membayar hingga $ 20.000 untuk bantuan Anda.
Program Bug Bounty OpenAI membayar besar
OpenAI mengumumkan Program Bug Bounty baru pada Selasa, 11 April, mengundang “peneliti keamanan, peretas etis, dan penggemar teknologi” untuk menggaruk produk mereka (termasuk ChatGPT) untuk “kerentanan, bug, atau kelemahan keamanan.”
Jika Anda menemukan kelemahan seperti itu, OpenAI akan memberi hadiah uang kepada Anda. Pembayaran bervariasi berdasarkan tingkat keparahan masalah yang Anda temukan, mulai dari $ 200 untuk temuan “keparahan rendah” hingga $ 20.000 untuk “penemuan luar biasa”.
Program Bug Bounty sebenarnya cukup umum. Perusahaan di seluruh pasar menawarkannya, mengalihkan pekerjaan mencari bug kepada siapa saja yang ingin bergabung. Ini sedikit seperti menguji beta sebuah aplikasi:
Tentu saja, Anda dapat memiliki pengembang mencari bug dan glitch, tetapi mengandalkan sekelompok pengguna yang terbatas meningkatkan kemungkinan kehilangan masalah penting.
Dalam program bug bounty, taruhannya bahkan lebih besar, karena perusahaan paling tertarik mencari bug yang membuat perangkat lunak mereka – dan oleh karena itu pengguna mereka – rentan terhadap ancaman keamanan.
Cara mendaftar untuk Program Bug Bounty OpenAI
Program Bug Bounty OpenAI bermitra dengan Bugcrowd, sebuah organisasi yang membantu menyaring pencarian bug secara massal. Anda dapat mendaftar untuk program melalui situs resmi Bugcrowd, di mana pada saat ini, 24 kerentanan telah diberi hadiah, dan pembayaran rata-rata adalah $ 983,33.
OpenAI ingin membuatnya jelas, meskipun masalah keamanan model tidak berlaku untuk program ini. Jika dalam pengujian salah satu produk OpenAI, Anda menemukan model berperilaku tidak wajar, Anda harus mengisi formulir umpan balik perilaku model, bukan melalui Program Bug Bounty.
Misalnya, Anda tidak boleh mencoba mengklaim hadiah jika model memberi tahu Anda cara melakukan sesuatu yang buruk, atau jika ia menulis kode berbahaya untuk Anda. Selain itu, halusinasi juga tidak termasuk dalam lingkup bounty.
OpenAI memiliki daftar panjang masalah dalam jangkauan di halaman Bugcrowd-nya, selain daftar masalah yang lebih panjang lagi di luar jangkauan. Pastikan untuk membaca aturan dengan cermat sebelum mengirimkan bug Anda.