telkomsel halo

Opini & Kolom

Bagaimana membuat AI Generatif lebih mudah dikonsumsi

05:31:00 | 29 Dec 2024
Bagaimana membuat AI Generatif lebih mudah dikonsumsi
Ilustrasi (dok)
Pikirkan beberapa tren teknologi di masa lalu, dan Anda akan mulai melihat munculnya beberapa pola. Contohnya, tidak ada pendekatan one-size-fits-alldalam komputasi cloud. Kombinasi dari beberapa pendekatan, seperti on premise dan provider cloudyang berbeda-beda, telah mendorong perusahaan memanfaatkan infrastruktur hybrid untuk menjalankan aplikasi enterprise mereka. Saat kita memikirkan tentang masa depan, struktur yang sama akan sangat penting saat mengkonsumsi kecerdasan buatan (AI) di berbagai aplikasi dan lingkungan bisnis.

Fleksibilitas akan sangat penting karena tidak ada satu pun pendekatan AI yang dapat memenuhi seluruh kebutuhan setiap perusahaan. Dan tidak ada satu pun vendor platform AI yang bisa memenuhi semua kebutuhan tersebut. Alih-alih, kombinasi dari model-model yang sudah dikembangkan sebelumnya, solusi yang sudah disesuaikan, dan integrasi yang aman dengan proprietary data yang dimiliki oleh perusahaan akan mendorong pengadopsian AI. Berkat open framework, software dan infrastruktur, perusahaan di semua skala kini bisa mengakses dan menyesuaikan model AI generatif (gen AI), mengadaptasinya sesuai dengan kebutuhan khas mereka masing-masing.

Dari mana keuntungan gen AI berasal?

Untuk memahami bagaimana AI bisa dikonsumsi di aplikasi internal dan eksternal, mari kita melihat secara spesifik bagaimana perusahaan berinvestasi dalam teknologi ini. Dikompilasi oleh State of Generative AI in the Enterprise in 2024 dari Deloitte, keuntungan yang paling penting dari investasi gen AI bukanlah untuk berinovasi di ranah bisnis mereka, namun lebih berfokus pada efisiensi, produktivitas dan otomatisasi tugas-tugas yang repetitif. Memang benar bahwa model-model tersebut bisa menghasilkan konten baru, namun dalam kasus ini, value yang sesungguhnya akan berasal dari pemahaman mengenai large language models (LLMs) dan pemrosesan terhadap sejumlah besar data untuk mengenali pola-pola. Saat diaplikasikan ke dalam software tradisional, aplikasi berbasis AI ini dikenal sebagai aplikasi yang cerdas, yang meningkatkan dan membantu alur kerja manusia.

Namun, perjalanan untuk mengadopsi AI bisa bervariasi; perusahaan biasanya mulai dengan mengotomatiskan tugas-tugas sederhana, hingga sepenuhnya mengintegrasikan AI ke dalam alur bisnis mereka. Pengadopsian secara bertahap ini dimulai dengan menguji coba use cases yang non-kritikal dan memanfaatkan tool yang sudah ada, seperti asisten kode otomatis, yang akan membebaskan dari tugas-tugas repetitif. Saat kepercayaan terhadap value AI meningkat, pengembang dan perusahaan akan mulai mengintegrasikannya ke dalam proses bisnis dan aplikasi yang spesifik. Langkah terakhir adalah kustomisasi mengembangkan model AI proprietaryyang mendapatkan suplai informasi dari data perusahaan yang unik, sehingga AI dapat menghasilkan insight dan keputusan yang unik pula.

Setiap fase memiliki kelebihan dan kompleksitasnya sendiri karena penggunaan AI dalam bisnis akan semakin canggih. Mari lihat tahap-tahap ini lebih dalam, untuk mengungkap bagaimana AI secara bertahap menjadi bagian penting dan berguna dalam setiap operasional.

Memanfaatkan AI: Menyederhanakan tugas dengan bantuan AI

Dalam beberapa tahun terakhir, sudah banyak dari kita yang berinteraksi dengan gen AI untuk mengotomatiskan dan meningkatkan tugas-tugas rutin, terutama untuk para pengembang dan engineer. Code assistant (asisten kode) adalah kasus penggunaan LLM yang umum, menyederhanakan tugas-tugas repetitif dalam berbagai bahasa pemrograman. Sebagai contoh, tool seperti Red Hat Ansible Lightspeed with watsonx Code Assistant atau Red Hat OpenShift Lightspeed mengintegrasikan AI untuk mempercepat tugas pengembangan software atau debugging di lingkungan IT operasional. Dalam praktiknya, ia memungkinkan siklus iterasi yang lebih cepat dan menghilangkan pekerjaan yang redundant, supaya pengembang bisa lebih berfokus pada pemecahan masalah dan pengambilan keputusan yang penting.

Bagi tim IT, model-model yang dibangun sebelumnya (pre-built) ini mudah untuk diimplementasikan, hanya membutuhkan pengaturan yang minimal, dan bisa beroperasi tanpa perubahan infrastruktur yang signifikan, menjadikannya opsi yang bisa diakses oleh tim yang baru mengenal AI. Inilah sebabnya, pendekatan yang umum untuk menggunakan AI, berhubungan dengan upaya untuk efisiensi di tempat kerja.

Mengadopsi AI: Mengintegrasikan AI untuk alur bisnis

Begitu perusahaan terbiasa dengan tool tersebut, mereka sering kali mulai menerapkan model AI ke dalam operasional bisnis. Pada tahap ini, AI dibangun ke dalam aplikasi untuk meningkatkan interaksi pengguna atau mendukung tugas-tugas yang berkembang, seperti customer service otomatis. Satu contohnya adalah Experience Engineering (XE) kami, yang sudah menggunakan model Mixtral-8x7b-Instructuntuk menghasilkan lebih dari 130.000 rangkuman solusi untuk kasus-kasus yang di-support, yang menyebabkan terjadinya 20% peningkatan dalam engagement pelanggan yang berhasil memecahkan masalah secara mandiri.

Di banyak industri, pengembang memimpin upaya untuk menggunakan sistem rekomendasi yang digerakkan oleh AI dan tool engagement pelanggan yang dinamis. Namun, dalam beberapa kasus sistem ini membutuhkan kustomisasi yang moderat, seperti pelatihan pada pola interaksi yang spesifik atau perilaku pengguna, untuk memastikan respons yang lebih relevan dan berguna.

Pada akhirnya, menggunakan AI dengan aplikasi modern memberikan aplikasi tersebut konteks yang lebih komprehensif mengenai apa yang ingin dicapai oleh pengguna. Baik konteks yang terkait pemahaman umum maupun yang spesifik bagi perusahaan, di mana AI tahu apa yang dibutuhkan dan langkah-langkah apa yang perlu diambil untuk mencapai targetnya tanpa pelatihan mendetail dari tim IT. Melancarkan interaksi antara manusia dan sistem pada akhirnya adalah tujuan yang ingin kita capai dengan teknologi AI aplikasi yang memahami manusia dan mengurangi beban berat sebuah proses.

Red Hat OpenShift AI adalah platform AI yang berintegrasi dengan platform aplikasi cloud nativeuntuk membantu pengembang menguji, menerapkan, dan melakukan iterasi terhadap model AI secara efektif, menciptakan aplikasi real time yang responsif terhadap kebutuhan pelanggan. Menggabungkan model-model dasar dengan data bisnis menggunakan API dan framework orkestrasi AI seperti LangChain, banyak langkah yang dulunya begitu kompleks, dengan AI kini bisa diatasi dengan fungsi di aplikasi itu sendiri.

Menyesuaikan AI: Mengintegrasikan proprietary data untuk penyelarasan AI

Bagi mereka yang siap mengambil alih kepemilikan model AI sepenuhnya, langkah selanjutnya adalah menyesuaikannya dengan proprietary data yang mereka miliki, yang dikenal sebagai penyelarasan model (model alignment). Di sinilah potensi AI berubah dari utilitas generik menjadi tool bisnis yang strategis, menyelaraskan model mendekati konteks operasional perusahaan. Namun, melatih dan menyempurnakan model dengan data privat memberikan tantangan-tantangan teknis, seperti mengelola data secara rahasia, alokasi sumber daya, dan update model yang berkelanjutan.

Kustomisasi jadi lebih bisa diakses melalui frameworkseperti retrieval augmented generation (RAG) danlarge-scale alignment for chatBots (LAB) di InstructLab, yang memungkinkan tim-tim melakukan penyelarasan AI dengan pengetahuan dan proprietary data yang spesifik untuk industri. InstructLab memungkinkan enterprise melakukan layering terhadap pengetahuan atau kemampuan model yang spesifik untuk perusahaan itu pada foundational LLM, menggunakanteknik data generation sintetis terbaru, sehingga AI dapat menjawab pertanyaan atau melakukan tugas-tugas yang langsung relevan dengan perusahaan.

Ingatlah bahwa tidak ada pendekatan yang standar untuk menentukan jalan mana yang sebaiknya diambil perusahaan dalam perjalanan AI mereka. Namun, untuk menjadikan AI lebih mudah dikonsumsi, ingatlah ada tiga area yang harus diprioritaskan: utilisasi, adopsi dan kustomisasi gen AI.

Ditulis oleh Cedric Clyburn

Senior Developer Advocate, Red Hat dan Frank La Vigne,

AI Principal Technical Marketing Manager, Red Hat

GCG BUMN

Artikel Terkait
Rekomendasi
Berita Pilihan
More Stories