June 27, 2025

Akamai Rilis Akamai Cloud Inference, Tawarkan Solusi AI 86% Lebih Efisien

Penulis: Rizki R
Akamai Rilis Akamai Cloud Inference, Tawarkan Solusi AI 86% Lebih Efisien 

Mobitekno – Akamai (NASDAQ: AKAM) belum lama ini mengumumkan terobosan terbarunya, Akamai Cloud Inference, sebuah platform yang menjembatani dunia prediksi AI yang kompleks dengan tindakan nyata yang cepat dan efisien, khususnya bagi organisasi yang ingin mengoptimalkan model prediktif dan Large Language Models (LLM) dalam skala global.

Adam Karon, Chief Operating Officer dan General Manager Cloud Technology Group di Akamai, menegaskan bahwa mendekatkan data AI ke pengguna dan perangkat itu sulit, dan di situlah tantangan yang dihadapi platform cloud lama. Di tengah dominasi pusat data hyperscale, Akamai memilih jalan berbeda, yaitu menempatkan proses inferensi AI yang krusial lebih dekat ke ujung jaringan, yaitu di edge. Inilah yang menjadikan Akamai Cloud Inference berbeda dan mempersiapkan platform ini sebagai pondasi masa depan AI.

Keunggulan Akamai Cloud Inference

Dengan berjalan di atas infrastruktur cloud paling terdistribusi di dunia, Akamai Cloud Inference menyediakan throughput tiga kali lebih tinggi dan menurunkan latensi hingga 2,5 kali lipat dibandingkan solusi cloud tradisional. Tidak hanya itu, efisiensi biaya menjadi sorotan utama: pengguna dapat menghemat hingga 86% pada beban kerja inferensi AI dibandingkan dengan hyperscalers konvensional.

IMG 20250627 101115

Pilar Teknologi Akamai Cloud Inference

Komputasi Serbaguna dan Terintegrasi: Mulai dari CPU klasik yang sudah dioptimalkan untuk inferensi hingga GPU dan VPU ASIC yang dipercepat, Akamai bekerja erat dengan ekosistem Nvidia untuk menghadirkan performa AI terbaik. Ini memungkinkan penanganan beragam kebutuhan inferensi dari beban ringan hingga berat.

Manajemen Data Modern: Kolaborasi dengan VAST Data dan integrasi dengan penyimpanan objek yang sangat skalabel memungkinkan akses real-time terhadap data yang penting. Dukungan untuk vendor database vektor terkemuka seperti Aiven dan Milvus memperkuat fungsionalitas Retrieval-Augmented Generation (RAG), memungkinkan inferensi AI berjalan secara aman dan cepat dengan latensi rendah dalam skala global.

Kontainerisasi yang Fleksibel: Dengan teknologi Kubernetes dan platform orkestrasi Linode Kubernetes Engine-Enterprise, Akamai menawarkan penerapan beban kerja AI yang cepat, portabel, dan tahan banting di lingkungan hybrid dan multicloud. Proyek open-source Kubernetes seperti KServe dan Kubeflow terintegrasi mulus untuk memudahkan pengembangan model AI.

Komputasi Edge dengan WebAssembly (WASM): Melalui kolaborasi dengan penyedia WASM seperti Fermyon, Akamai menghadirkan eksekusi kode ringan di edge, memungkinkan pengembang menjalankan inferensi LLM langsung dari aplikasi tanpa server dan menghadirkan pengalaman latency rendah yang esensial untuk aplikasi masa kini.

IMG 20250627 101031

Seiring kematangan adopsi AI, fokus bergeser dari hanya pelatihan model besar yang mahal ke inferensi AI yang lebih praktis dan langsung menghasilkan dampak bisnis. Akamai Cloud Inference menjawab kebutuhan ini dengan menyediakan arsitektur cloud yang benar-benar terdistribusi, memproses data dekat dengan titik asalnya dan memberikan keputusan real-time yang lebih cerdas.

Transformasi ini sangat krusial mengingat volume data yang terus meningkat di luar pusat data konvensional. Solusi Akamai memungkinkan perusahaan memanfaatkan AI untuk memperbaiki operasi dan proses bisnis dengan efisiensi yang belum pernah ada sebelumnya, serta memberikan pengalaman personalisasi bagi pelanggan mereka.

Implementasi Nyata di Dunia Bisnis

Berbagai pelanggan awal telah memanfaatkan Akamai Cloud Inference, di antaranya:

  1. Asisten suara di kendaraan yang memberikan respons instan
  2. Manajemen hasil berbasis AI yang efisien
  3. Visualisasi produk secara virtual untuk pengalaman berbelanja interaktif
  4. Generator deskripsi produk otomatis yang meningkatkan produktivitas konten
  5. Analisis sentimen umpan balik pelanggan yang memperkuat strategi pemasaran

Akamai Cloud Inference

Akamai Cloud Inference membuktikan bahwa masa depan AI bukan lagi soal pusat data tunggal dan jarak jauh, melainkan tentang bagaimana teknologi dapat mendekatkan kekuatan komputasi ke pengguna, mengoptimalkan kinerja, efisiensi, dan biaya. Dengan jaringan global yang menjangkau lebih dari 4.200 titik kehadiran di 130 negara, Akamai Cloud Inference menjadikan AI sebagai kekuatan yang nyata, responsif, dan relevan, dari cloud hingga edge.

Biaya Transfer Data yang Lebih Hemat

CTO, Cloud Computing Akamai Technologies, Jay Jenkins menjelaskan bahwa salah satu kendala besar dalam penggunaan layanan cloud adalah biaya transfer data, yang bisa sangat mahal terutama bagi penyedia layanan cloud besar alias hyperscalers. Contohnya, tarif transfer data mereka bisa mencapai 5 sen per gigabyte, di mana harga yang cukup tinggi jika volume data sudah mencapai petabyte.

Namun, Akamai punya cara berbeda. Dengan jaringan global yang tersebar luas, mereka mampu menjaga biaya transfer data hanya sekitar setengah sen per gigabyte. Artinya, biaya bisa ditekan hingga 10 kali lebih rendah dibanding kompetitor besar lain.

IMG 20250627 102146

“Lebih jauh lagi, Akamai juga menempatkan infrastruktur komputasi sebagai komoditas, sehingga pengguna bisa tetap menjalankan mesin virtual sendiri tanpa harus membayar biaya premium yang biasa diterapkan oleh hyperscalers. Ini jadi salah satu alasan banyak organisasi mempertimbangkan kembali strategi cloud mereka dan memilih Akamai,” ungkap Jenkins.

Jaringan Edge yang Luas dan Dekat dengan Pengguna di Indonesia

Berbeda dari banyak perusahaan cloud yang hanya mengandalkan satu pusat data dengan beberapa availability zone di lokasi itu saja, Akamai membangun jaringan edge yang tersebar di banyak lokasi berbeda di Indonesia.

Tidak hanya Jakarta, Akamai sudah memiliki tujuh lokasi edge computing di berbagai wilayah Indonesia. Strategi ini memastikan aplikasi dan layanan bisa berjalan dengan lebih cepat dan responsif karena datanya diproses lebih dekat ke pengguna akhir. Jadi, saat menggunakan aplikasi, pengguna tidak perlu menunggu lama atau mengalami lag.

Tags: , , , , , , , , , ,


COMMENTS