Perusahaan teknologi jaringan global, Akamai Technologies, resmi mengadopsi teknologi Nvidia AI Grid ke dalam sistem infrastrukturnya. Integrasi ini memungkinkan proses komputasi kecerdasan buatan (AI) tidak lagi terpusat, melainkan tersebar hingga ribuan titik edge di berbagai belahan dunia.
Langkah ini menjadikan Akamai sebagai pelopor dalam penerapan desain referensi Nvidia AI Grid dalam skala global. Inisiatif tersebut juga menjadi bagian dari pengembangan layanan Akamai Inference Cloud yang sebelumnya telah diperkenalkan.
Melalui pendekatan ini, beban kerja AI—terutama untuk proses inferensi—didistribusikan ke lebih dari 4.400 lokasi edge, serta ke pusat data regional dan pusat data inti. Strategi ini bertujuan menciptakan keseimbangan antara kecepatan respons, efisiensi biaya, dan performa sistem secara keseluruhan.
Chief Operating Officer Akamai, Adam Karon, menilai bahwa model komputasi AI yang hanya mengandalkan pusat data terpusat sudah tidak lagi memadai untuk mendukung kebutuhan aplikasi modern. Ia menegaskan bahwa orkestrasi cerdas dari AI Grid memungkinkan distribusi beban kerja secara lebih fleksibel dan efisien ke berbagai lokasi.
Didukung Ribuan GPU Canggih
Sebagai bagian dari implementasi teknologi ini, Akamai mengoperasikan ribuan GPU kelas server, yaitu Nvidia RTX Pro 6000 Blackwell Server Edition. Perangkat ini dirancang untuk menangani beragam kebutuhan AI, mulai dari model bahasa besar hingga pemrosesan multimodal.
Dengan dukungan GPU tersebut, jaringan edge milik Akamai kini mampu menggabungkan komputasi berkekuatan tinggi di pusat data dengan pemrosesan yang lebih dekat ke pengguna. Sistem edge akan menangani tugas yang membutuhkan latensi rendah, sementara proses berat seperti pelatihan model tetap dilakukan di pusat data utama.
Orkestrasi Cerdas dan Efisiensi “Tokenomics”
Akamai menempatkan sistem orkestrasi pintar sebagai inti dari AI Grid. Teknologi ini bertugas mengatur distribusi beban kerja secara real-time dengan mempertimbangkan efisiensi biaya, kecepatan respons, dan kapasitas sistem.
Konsep yang digunakan dikenal sebagai “tokenomics”, yakni pengoptimalan biaya per token, throughput, serta waktu respons. Dengan dukungan fitur seperti caching semantik dan routing adaptif, permintaan AI dapat diarahkan ke sumber daya yang paling sesuai.
Hasilnya, tugas ringan dapat dijalankan di edge, sedangkan beban kerja berat dialihkan ke GPU berperforma tinggi. Pendekatan ini diklaim mampu menekan biaya operasional sekaligus meningkatkan kinerja layanan AI, khususnya untuk skala besar.
Sudah Dimanfaatkan di Berbagai Industri
Akamai menyebutkan bahwa teknologi ini telah mulai digunakan di berbagai sektor yang membutuhkan respons cepat.
Di industri game, misalnya, sistem ini memungkinkan karakter non-pemain (NPC) berbasis AI berinteraksi secara real-time dengan latensi kurang dari 50 milidetik. Di sektor keuangan, teknologi ini dimanfaatkan untuk mendeteksi aktivitas mencurigakan serta memberikan layanan yang lebih personal saat pengguna mengakses aplikasi.
Sementara itu, di industri media, platform ini digunakan untuk proses seperti transkoding dan dubbing secara langsung. Adapun di sektor ritel, penerapan AI mulai terlihat pada sistem toko pintar hingga kasir otomatis berbasis kecerdasan buatan.
Menuju Era AI Terdistribusi
Menurut Akamai, gelombang awal perkembangan infrastruktur AI masih didominasi oleh pusat data besar yang fokus pada pelatihan model. Namun, meningkatnya kebutuhan akan inferensi dan aplikasi berbasis agen AI membuat pendekatan tersebut mulai menemui batasan.
Distribusi komputasi ke jaringan edge dianggap sebagai solusi untuk mengatasi masalah latensi sekaligus meningkatkan skalabilitas dan pengalaman pengguna.
Saat ini, layanan Akamai Inference Cloud sudah tersedia bagi sejumlah pelanggan korporat. Perusahaan juga mengungkap telah mengamankan kontrak senilai 200 juta dolar AS untuk periode empat tahun, terkait penyediaan klaster GPU dalam infrastruktur AI berbasis edge.
