Manufaktur chip AI Cerebras Systems bersiap melantai di bursa saham dengan target valuasi mencapai 26,6 miliar dolar AS atau sekitar Rp 425,6 triliun. Langkah ini menandai IPO teknologi terbesar sepanjang 2026 sekaligus mengungkap kedalaman hubungan finansial perusahaan dengan para petinggi OpenAI. Kesuksesan aksi korporasi ini diprediksi menjadi tolok ukur minat investor terhadap raksasa AI lain seperti SpaceX dan Anthropic.
Cerebras Systems telah menetapkan target untuk melepas 28 juta lembar saham pada kisaran harga 115 hingga 125 dolar AS per lembar. Melalui penawaran perdana ini, perusahaan berbasis di Silicon Valley tersebut berpotensi meraup dana segar sebesar 3,5 miliar dolar AS (sekitar Rp 56 triliun). Angka ini mencerminkan kenaikan nilai yang signifikan dibandingkan putaran pendanaan Seri H pada Februari lalu yang mematok valuasi di angka 23 miliar dolar AS.
Keterlibatan OpenAI dalam struktur modal Cerebras jauh lebih dalam dari sekadar hubungan vendor dan pelanggan. Dokumen prospektus S-1 perusahaan mengungkap bahwa pada Desember lalu, OpenAI memberikan pinjaman sebesar 1 miliar dolar AS kepada Cerebras. Pinjaman ini dijamin dengan waran yang memberikan hak kepada OpenAI untuk membeli lebih dari 33 juta lembar saham Cerebras di masa depan.
Nama-nama besar di balik OpenAI juga tercatat sebagai investor malaikat individu. CEO OpenAI Sam Altman, Presiden Greg Brockman, hingga mantan Chief Scientist Ilya Sutskever masuk dalam daftar pemegang saham. Bahkan, CEO Quora sekaligus anggota dewan OpenAI Adam D’Angelo turut menanamkan modalnya di perusahaan chip ini. Kedekatan ini sempat menjadi materi gugatan hukum Elon Musk yang menuduh adanya konflik kepentingan dalam investasi pribadi para eksekutif tersebut.
Di sisi teknologi, Cerebras mengandalkan Wafer-Scale Engine 3 (WSE-3) untuk menggoyang dominasi GPU dalam ekosistem kecerdasan buatan. Berbeda dengan chip konvensional yang berukuran kecil, WSE-3 adalah satu keping silikon raksasa yang dirancang khusus untuk menangani beban kerja AI skala besar. Perusahaan mengklaim arsitektur ini memberikan kecepatan jauh lebih tinggi untuk proses inference dibandingkan kompetitornya.
Keunggulan utama yang ditawarkan adalah efisiensi daya. Dalam industri di mana konsumsi listrik pusat data menjadi perhatian utama, Cerebras menjanjikan performa komputasi tinggi dengan penggunaan energi yang lebih rendah. Fokus pada tahap inference—yakni proses saat model AI menjawab perintah atau prompt pengguna—menempatkan Cerebras di posisi strategis saat banyak perusahaan mulai beralih dari fase melatih model ke fase implementasi produk.
Perjalanan Cerebras menuju bursa saham sebenarnya sempat terganjal pada 2024. Rencana IPO tahun lalu terpaksa ditunda akibat tinjauan ketat pemerintah federal Amerika Serikat terhadap investasi dari G42, perusahaan penyedia layanan cloud asal Abu Dhabi. G42 bukan hanya investor, melainkan juga salah satu pelanggan terbesar Cerebras yang menyumbang porsi pendapatan signifikan.
Kini, sentimen pasar tampaknya telah berbalik arah menjadi sangat positif. Laporan Bloomberg menyebutkan bahwa bank-bank penjamin emisi telah menerima pesanan saham senilai 10 miliar dolar AS, jauh melampaui target 3,5 miliar dolar AS yang ditawarkan. Tingginya permintaan ini membuka peluang bagi Cerebras untuk menetapkan harga perdana di atas kisaran yang telah diumumkan sebelumnya.
Selain para petinggi OpenAI, sejumlah firma modal ventura papan atas dipastikan akan meraup keuntungan besar dari aksi korporasi ini. Alpha Wave, Benchmark, Fidelity, dan Foundation Capital merupakan pemegang saham terbesar dengan kepemilikan di atas 5 persen. Nama-nama besar lain seperti Tiger Global, Coatue, hingga CEO Intel Lip-Bu Tan juga terdaftar sebagai pemodal yang mendukung pertumbuhan perusahaan sejak tahap awal.
Keberhasilan IPO Cerebras akan menjadi sinyal penting bagi kesehatan pasar modal teknologi global. Jika pasar merespons positif, pintu bagi perusahaan rintisan dengan valuasi "decacorn" lainnya untuk menyusul ke lantai bursa akan terbuka lebar. Bagi industri di Indonesia, pergerakan ini patut dicermati sebagai indikator pergeseran infrastruktur AI dari ketergantungan mutlak pada GPU menuju solusi chip spesifik yang lebih efisien.