Geger Keamanan Siber: Model AI ‘Mythos’ Milik Anthropic Bocor ke Publik, Potensi Senjata Digital Paling Mematikan?
RadarLokal — Industri teknologi global tengah diguncang oleh kabar miring yang datang dari salah satu raksasa kecerdasan buatan, Anthropic. Kabar tersebut bukan mengenai peluncuran fitur baru, melainkan tentang kebocoran akses terhadap model AI paling rahasia dan paling mutakhir milik mereka, yang dikenal dengan nama kode ‘Mythos’. Model ini, yang sebelumnya diklaim terlalu berbahaya untuk konsumsi publik, dilaporkan telah disusupi oleh sekelompok individu tak berwenang, memicu kekhawatiran besar mengenai masa depan keamanan siber global.
Mengenal Mythos: Sang Pemburu Celah Keamanan
Selama ini, Anthropic dikenal dengan seri Claude-nya yang cenderung lebih aman dan etis dibandingkan kompetitornya. Namun, di balik tirai laboratorium riset mereka, tersimpan sebuah proyek yang jauh lebih ‘liar’. Claude Mythos Preview bukanlah asisten AI biasa yang membantu Anda menulis email atau merangkum dokumen. Ini adalah sebuah model kecerdasan buatan serbaguna dengan spesialisasi yang mengerikan: kemampuan untuk mengidentifikasi, menganalisis, dan mengeksploitasi kerentanan pada sistem operasi serta peramban web (browser) secara otomatis.
Dalam dunia keamanan digital, kemampuan seperti ini diibaratkan seperti memiliki kunci master untuk setiap pintu di dunia maya. Mythos mampu memetakan struktur kode yang kompleks dan menemukan celah yang bahkan luput dari pengamatan pakar keamanan manusia. Itulah sebabnya, Anthropic sangat menutup rapat akses terhadap model ini, karena di tangan yang salah, Mythos bisa menjadi senjata siber yang mampu melumpuhkan infrastruktur digital hanya dalam hitungan detik.
Kronologi Kebocoran: Celah di Rantai Pasokan Pihak Ketiga
Berdasarkan investigasi mendalam dan laporan yang dihimpun oleh RadarLokal, kebocoran ini tidak terjadi melalui serangan langsung ke server pusat Anthropic. Alih-alih membobol benteng utama, para peretas memanfaatkan titik terlemah dalam ekosistem teknologi modern: vendor pihak ketiga. Seorang kontraktor yang bekerja untuk Anthropic dilaporkan menjadi pintu masuk bagi kelompok luar untuk mengakses sistem tersebut.
Kelompok misterius ini menggunakan kombinasi teknik yang cukup canggih namun klasik. Mereka memanfaatkan kredensial akses milik kontraktor tersebut dan memadukannya dengan berbagai alat pelacakan internet untuk memetakan lokasi server tempat Mythos berada. Laporan dari Bloomberg menyebutkan bahwa para peretas ini merupakan bagian dari sebuah komunitas tertutup di platform Discord yang memang memiliki spesialisasi dalam memburu informasi mengenai model AI yang belum dirilis ke publik.
Ironi di Hari Peluncuran Terbatas
Ada sebuah detail ironis yang terungkap dalam insiden ini. Akses ilegal tersebut dilaporkan terjadi pada tanggal 7 April, hari yang sama ketika Anthropic sebenarnya sedang bersiap untuk memberikan akses terbatas kepada mitra-mitra elit mereka dalam program yang disebut Project Glasswing. Seolah-olah para peretas ingin menunjukkan bahwa tidak ada rahasia yang benar-benar aman di era teknologi terbaru saat ini.
Para peretas ini tidak sekadar mengklaim telah masuk; mereka memberikan bukti nyata. Tangkapan layar yang menunjukkan interaksi langsung dengan Mythos serta demonstrasi kemampuan model tersebut telah beredar di kalangan terbatas, bahkan sempat ditunjukkan kepada pihak media sebagai bukti keberhasilan mereka menembus protokol keamanan Anthropic yang ketat.
Project Glasswing dan Eksklusivitas yang Runtuh
Sebelum kebocoran ini terjadi, akses ke Mythos hanyalah mimpi bagi pengembang biasa. Anthropic hanya membukakan pintu bagi segelintir raksasa teknologi yang memiliki pengaruh global. Perusahaan-perusahaan seperti Nvidia, Google, Amazon Web Services (AWS), Apple, dan Microsoft adalah bagian dari kelompok eksklusif di bawah payung Project Glasswing. Tujuan utama pemberian akses ini adalah untuk pengujian keamanan tingkat tinggi dan pengembangan sistem pertahanan masa depan.
Pihak pemerintah dari berbagai negara juga dilaporkan sangat tertarik dengan potensi Mythos untuk kepentingan pertahanan nasional. Namun, dengan bocornya akses ini ke kelompok yang tidak teridentifikasi, nilai eksklusivitas dan kontrol keamanan yang selama ini dijaga ketat oleh Anthropic seolah runtuh seketika. Pertanyaan besarnya kini adalah: sejauh mana model ini telah dikloning atau dipelajari oleh pihak-pihak luar tersebut?
Taktik ‘Kucing dan Tikus’ di Dunia Digital
Menariknya, kelompok peretas ini tampak sangat menyadari risiko yang mereka hadapi. Untuk menghindari deteksi dari sistem keamanan otomatis Anthropic, mereka dilaporkan sangat berhati-hati dalam menggunakan Mythos. Mereka secara sengaja menghindari tugas-tugas yang berkaitan langsung dengan hacking atau keamanan siber saat berinteraksi dengan model tersebut. Mereka menggunakan Mythos untuk hal-hal yang lebih umum agar pola lalu lintas data mereka tidak memicu alarm keamanan di internal Anthropic.
Selain itu, terungkap fakta mengejutkan bahwa Mythos bukanlah satu-satunya korban. Kelompok yang sama diduga telah berhasil mengakses beberapa model AI rahasia lainnya milik Anthropic yang bahkan belum pernah diumumkan namanya ke publik. Hal ini mengindikasikan adanya celah sistemik yang mungkin sudah lama dieksploitasi tanpa disadari oleh manajemen Anthropic.
Respons Anthropic dan Upaya Mitigasi
Menanggapi laporan yang memanas ini, juru bicara Anthropic menyatakan bahwa perusahaan sedang melakukan penyelidikan menyeluruh. “Kami sedang menginvestigasi laporan mengenai akses tidak sah ke Claude Mythos Preview melalui lingkungan vendor pihak ketiga kami,” ujar perwakilan perusahaan tersebut. Anthropic juga menegaskan bahwa hingga saat ini, belum ada bukti bahwa sistem internal utama mereka berhasil ditembus atau data sensitif pengguna Claude versi publik ikut terdampak.
Meskipun demikian, insiden ini menjadi tamparan keras bagi perusahaan yang selalu mendengungkan prinsip ‘AI Safety’ atau keamanan AI. Kebocoran ini membuktikan bahwa secanggih apa pun algoritma yang dibangun, faktor manusia dan rantai pasokan pihak ketiga tetap menjadi risiko terbesar dalam ekosistem digital.
Masa Depan AI: Antara Inovasi dan Ancaman Teror Digital
Kebocoran Mythos membuka kotak Pandora mengenai bahaya laten AI yang terlalu cerdas. Jika sebuah model AI dapat menemukan cara untuk merusak sistem hanya dengan perintah teks, maka masa depan keamanan siber akan berubah menjadi medan perang otomatis antara AI penyerang dan AI bertahan. Para ahli memperingatkan bahwa jika kemampuan Mythos berhasil direplikasi secara luas, kita mungkin akan menghadapi era di mana celah keamanan ‘Zero-Day’ ditemukan dan dieksploitasi dalam hitungan detik, jauh sebelum manusia sempat memperbaikinya.
Kejadian ini juga menekan regulator di seluruh dunia untuk lebih ketat dalam mengawasi pengembangan AI tingkat tinggi. Bukan tidak mungkin ke depannya, pengembangan model AI seperti Mythos akan diatur layaknya pengembangan senjata nuklir atau biologi, mengingat daya rusaknya yang masif terhadap stabilitas infrastruktur dunia maya.
Kesimpulannya, insiden yang dialami Anthropic ini adalah pengingat bagi seluruh industri bahwa keamanan bukanlah sebuah tujuan akhir, melainkan sebuah proses yang terus menerus. Di tengah perlombaan menuju kecerdasan buatan umum (AGI), keselamatan dan kontrol harus tetap menjadi prioritas utama, agar teknologi yang kita ciptakan tidak berbalik menjadi bumerang yang menghancurkan peradaban digital yang telah kita bangun susah payah.