Lawrence Livermore National Laboratory
Baru-baru ini laboratorium ini juga disebut bakal ngasih data-data (
resources) punya mereka untuk AI bareng OpenAI pake komputer Venado di Los Alamos National Laboratory, laboratorium yang terkenal dengan Manhattan Project.
Salah satu yang diurusin di situ tentang
biodefense. AI model yang dipake o1 dan o model lainnya. Si model AI ini disuruh nyari patogen-patogen yang bisa jadi senjata biologi atau keluar secara alami karena mutasi (makhluk hidup itu beradaptasi dengan lingkungan, makanya bermutasi) walaupun patogen itu belum pernah ada sebelumnya dan kemungkinan penangkal sama pencegah nya. Itu cuman salah satu aktivitas nya aja, ada aktivitas yang lain.
Gimana-gimana, Stargate Project OpenAI, Oracle, MGX UAE, sama orang yang keluar dari proyek IKN, Masayoshi Son (SoftBank) 500 miliar USD itu penting banget. Buat
data center banyak untuk
training/ngelatih
machine learning-nya AI sampe jadi AGI bisa dibilang kayak ngejer dan
possessing senjata nuklir dulu. Kalo AS kalah sama China (menurutku gak) dan China duluan yang punya AGI, goblok banget AS.
AGI ini potensinya lebih besar dari
frontier AI yang kita tau sekarang. Bisa keluar obat-obatkan dari situ, penyembuh kanker, dari hal yang memperbaiki sampe mematikan. Si pemegang AGI bisa punya
bargain lebih secara geopolitik karena
possessing AGI. Masa kini masanya negara berlomba-lomba ngejer
AGI first-mover advantage. Sebelumnya AS yang pertama punya senjata nuklir, AGI jelas mereka gak mau kalah. Mereka jelas gamau China atau
autocracies lain punya Tuhan di sisi mereka.
Tapi AGI yang punya potensi banyak itu bahaya banget kalo sampe terjadi apa yang disebut
AI loss of control. Saking
autonomous nya dia, bahkan ekstrimnya bisa dibilang hidup, dia ada kemungkinan buat keputusan yang merugikan manusia. Bisa aja nganggep manusia sendiri sumber masalahnya dll. Misal gak begitu pun, ada pembahasan yang disebut
paperclip problem. Si AGI di bawah kontrol manusia disuruh mengoptimalkan produksi paperclip, ada dua kemungkinan yang bisa buat manusia terancam di situ, si AI bisa bunuh manusia karena si manusia bisa aja matiin mereka yang mana bakal ganggu usaha untuk pengoptimalan produksi
paperclip atau karena manusia punya zat yang diperlukan untuk produksi
paperclip. Dan di pembahasan itu AGI masih di bawah kontrol manusia awalnya, bukan murni
AI loss of control (
worst case scenario)