JAKARTA (IndoTelko) Pertumbuhan pesat dalam beban kerja kecerdasan buatan (AI) mendorong transformasi besar dalam infrastruktur jaringan pusat data. Menurut studi yang digagas oleh Ciena, para ahli pusat data global memperkirakan peningkatan signifikan dalam kebutuhan bandwidth interkoneksi di lima tahun ke depan.
Dalam survei yang dilakukan bersama dengan Censuswide ini melibatkan lebih dari 1.300 pengambil keputusan mengenai pusat data di 13 negara. Lebih dari setengah (53%) responden percaya bahwa beban kerja AI akan memberikan tekanan terbesar pada infrastruktur Data Center Interconnect (DCI) dalam 2-3 tahun ke depan, melampaui komputasi awan (51%) dan analitik big data (44%).
Demi memenuhi lonjakan pemanfaatan AI, 43% fasilitas pusat data yang baru diprediksi akan didedikasikan untuk beban kerja AI. Para ahli pusat data juga memperkirakan peningkatan kebutuhan bandwidth yang signifikan, terlebih dengan pelatihan dan inferensi model AI yang memerlukan pergerakan data dalam jumlah besar. Selain itu, ketika ditanya tentang kapasitas serat optik yang dibutuhkan untuk DCI, 87% responden meyakini mereka akan memerlukan 800 Gb/s atau lebih per panjang gelombang.
“Beban kerja AI tengah membentuk kembali seluruh industri pusat data, mulai dari pembangunan infrastruktur hingga permintaan bandwidth. Secara historis, lalu lintas jaringan tumbuh dengan kecepatan 20-30% per tahun. AI diperkirakan akan mempercepat pertumbuhan ini secara signifikan, sehingga para operator kini mempertimbangkan kembali komposisi infrastruktur mereka dan merencanakan bagaimana dapat memenuhi permintaan ini secara berkelanjutan,” kata Chief Technology Officer, International, Ciena Jürgen Hatheier.
Hasil survei mengonfirmasi bahwa terdapat peluang yang semakin besar bagi penggunaan pluggable optics untuk mendukung kebutuhan bandwidth sekaligus mengatasi tantangan daya dan ruang. Menurut survei, 98% ahli pusat data meyakini bahwa pluggable optics memiliki peran penting dalam mengurangi konsumsi daya serta jejak fisik infrastruktur jaringan mereka.
Komputasi Terdistribusi
Survei juga menemukan bahwa seiring dengan meningkatnya kebutuhan komputasi AI, pelatihan Large Language Models (LLMs) akan semakin terdistribusi di berbagai pusat data AI. Menurut survei, 81% responden meyakini bahwa pelatihan LLM akan dilakukan di sejumlah fasilitas pusat data yang terdistribusi, yang dimana memerlukan solusi DCI untuk saling terhubung.
Ketika ditanya tentang faktor utama yang memengaruhi di mana penerapan inferensi AI, para responden menetapkan prioritas berikut:
Pemanfaatan sumber daya AI dari waktu ke waktu sebagai prioritas utama (63%)
Mengurangi latensi dengan menempatkan komputasi inferensi lebih dekat ke pengguna di sisi akhir (56%)
Persyaratan kedaulatan data (54%)
Menawarkan lokasi strategis bagi pelanggan utama (54%)
Alih-alih menggunakan dark fiber, mayoritas responden (67%) berharap untuk menggunakan Managed Optical Fiber Networks (MOFN), yang memanfaatkan jaringan berkapasitas tinggi yang dioperasikan oleh penyedia layanan untuk konektivitas pusat data jarak jauh.
"Revolusi AI bukan hanya tentang komputasi, tetapi juga tentang konektivitas. Tanpa fondasi jaringan yang tepat, potensi AI tidak dapat termaksimalkan. Operator harus memastikan infrastruktur DCI mereka siap menghadapi masa depan di mana lalu lintas berbasis AI akan mendominasi,” katanya.(wn)