JAKARTA, JAMBI-INDEPENDENT.CO.ID - Perkembangan teknologi kecerdasan buatan (AI) telah menghadirkan banyak inovasi baru, termasuk layanan-layanan yang mampu menggantikan peran mesin pencari seperti Google.
Salah satu tokoh utama di balik perkembangan ini adalah Ilya Sutskever, seorang pendiri OpenAI yang kini mengalihkan fokusnya untuk membangun Safe Superintelligence (SSI).
Ilya Sutskever, yang telah dikenal sebagai salah satu ilmuwan komputer terkemuka di dunia, memutuskan untuk mundur dari OpenAI di saat perusahaannya sedang mengalami kesuksesan besar.
Keputusan ini diambilnya untuk mengejar visi baru dalam menciptakan kecerdasan buatan yang aman melalui SSI.
BACA JUGA:Sumur Bor Ilegal di Kecamatan Sungai Lilin Sumsel Terbakar, Sungai Parung Tercemar
BACA JUGA:Sejarah, Polwan Dokkes Pertama Jadi Pati Polri
Pada unggahan terbarunya di media sosial, Ilya Sutskever menjelaskan bahwa SSI bertujuan untuk mencapai superintelligence yang tidak hanya canggih tetapi juga aman.
Visi ini menggarisbawahi komitmen Sutskever terhadap keamanan dalam pengembangan teknologi AI, yang sering kali menjadi perhatian utama di tengah kekhawatiran global terhadap pengaruh AI yang tidak terkendali.
"Saya mulai perusahaan baru. Kami akan mengejar superintelligence yang aman secara langsung, dengan satu fokus, tujuan, dan satu produk," ungkap Sutskever dalam pernyataannya.
SSI juga menegaskan komitmennya terhadap keamanan jangka panjang dengan tidak mengutamakan keuntungan komersial dalam jangka pendek.
BACA JUGA:Tips Daftar IMEI iPhone Eks Inter Agar Dapat Semua Sinyal Provider
Hal ini menandakan bahwa SSI lebih mengutamakan kemajuan teknologi yang aman daripada tekanan komersial yang bisa mengganggu visi mereka.
Sebelum mendirikan SSI, Ilya Sutskever memimpin tim Superalignment di OpenAI, yang bertugas mengarahkan dan mengendalikan sistem AI.
Meskipun tim ini akhirnya dibubarkan setelah Sutskever dan Jan Leike memutuskan untuk keluar dari OpenAI, kontribusi mereka dalam pengembangan AI aman tetap memberi pengaruh besar.