JawaPos.com - OpenAI, perusahaan riset kecerdasan buatan atau Artificial Intelligence (AI) sedang berada di atas popularitasnya. Hal ini karena meledaknya platform bikinan mereka yakni ChatGPT, chatbot pintar yang dibekali dengan teknologi AI generatif.
Saat OpenAI sedang berada di atas awan, kabar tak sedap datang dari salah satu perusahaan yang disokong dana oleh Microsoft itu. Dave Willner, Pimpinan Kepercayaan dan Keamanannya, mengumumkan kepergiannya dari posisi tersebut.
Terkenal karena kemajuan inovatif dalam AI, OpenAI memperkenalkan ChatGPT, model bahasa revolusioner yang telah ada di internet, lebih baru dari sebelumnya. Willner membagikan berita tersebut di LinkedIn, mengungkapkan bahwa dia akan terus mendukung OpenAI sebagai penasihat.
Lalu, apa alasan dirinya keluar dari OpenAI? Dilansir dari Engadget, kepergian Wilner dari OpenAI dikarenakan dirinya ingin menghabiskan lebih banyak waktu dengan keluarganya.
Dia mengakui tantangan dalam mengelola pekerjaannya sangat berat. Semakin berat lagi karena pekerjaannya menuntut sambil menjadi orang tua bagi anak-anak kecil selama fase pengembangan intensitas tinggi perusahaan.
“Dalam beberapa bulan setelah peluncuran ChatGPT, saya merasa semakin sulit untuk memenuhi tawaran saya,” tulisnya di LinkedIn pribadinya.
“OpenAI sedang melalui fase intensitas tinggi dalam pengembangannya — begitu juga anak-anak kita. Siapa pun yang memiliki anak kecil dan pekerjaan yang sangat intens dapat merasakan ketegangan itu," lanjut Wilner.
Sepanjang masa jabatannya, Willner memainkan peran penting dalam mengarahkan inisiatif kepercayaan dan keselamatan OpenAI, mengungkapkan kebanggaan yang luar biasa atas pencapaian perusahaan.
Namun, kepergiannya bertepatan dengan tantangan hukum yang dihadapi oleh OpenAI. Federal Trade Commission (FTC) telah memulai penyelidikan atas kepatuhan perusahaan terhadap undang-undang perlindungan konsumen dan kekhawatiran tentang privasi dan keamanan, khususnya terkait kebocoran data yang melibatkan informasi pribadi pengguna ChatGPT.
Menanggapi meningkatnya kekhawatiran tentang keamanan AI, OpenAI, bersama dengan perusahaan lain, berkomitmen untuk menerapkan perlindungan tambahan. Ini termasuk menyediakan akses pakar eksternal ke kode, mengatasi bias dengan implikasi sosial, berbagi informasi keselamatan dengan pemerintah, dan menandai konten yang dihasilkan AI untuk transparansi.
Saat perusahaan menavigasi perubahan kepemimpinan ini dan mengatasi tantangan hukum dan keselamatan, perusahaan harus tetap berkomitmen untuk mempromosikan transparansi dan praktik AI yang etis.
Menemukan pengganti yang cocok untuk Trust and Safety Lead akan menjadi sangat penting untuk menegakkan dan menegakkan misi OpenAI dalam mengembangkan AI yang aman dan bermanfaat.