MAJALAH ICT – Jakarta. Confluent, Inc (NASDAQ:CFLT), pionir streaming data, mengumumkan kemampuan baru dalam Confluent Cloud untuk Apache Flink® yang merampingkan dan menyederhanakan proses pengembangan aplikasi kecerdasan buatan (AI) secara real-time. Flink Native Inference memangkas alur kerja yang rumit dengan memungkinkan organisasi untuk menjalankan model AI open source apa pun secara langsung di Confluent Cloud. Flink Search menyatukan akses data di berbagai basis data vektor, merampingkan penemuan dan pengambilan dalam satu antarmuka. Dan fungsi built-in machine learning (ML) yang baru menghadirkan kasus penggunaan yang digerakkan oleh AI, seperti peramalan dan deteksi anomali, langsung ke dalam Flink SQL, sehingga membuat ilmu data tingkat lanjut menjadi mudah. Inovasi-inovasi ini mendefinisikan ulang bagaimana bisnis dapat memanfaatkan AI untuk keterlibatan pelanggan secara real-time dan pengambilan keputusan.
“Membangun aplikasi AI real-time sudah lama menjadi terlalu rumit, membutuhkan banyak sekali alat bantu dan keahlian yang mendalam untuk memulainya,” ujar Shaun Clowes, Chief Product Officer di Confluent. “Dengan kemajuan terbaru dalam Confluent Cloud untuk Apache Flink, kami meruntuhkan hambatan tersebut – menghadirkan kecerdasan streaming yang didukung oleh AI dalam jangkauan tim mana pun. Apa yang dulunya membutuhkan tambal sulam teknologi, sekarang dapat dilakukan dengan mulus dalam platform kami, dengan keamanan tingkat perusahaan dan efisiensi biaya.”
Ledakan kecerdasan buatan telah tiba. Menurut McKinsey, 92% perusahaan berencana untuk meningkatkan investasi AI mereka selama tiga tahun ke depan. Perusahaan ingin memanfaatkan peluang ini dan memanfaatkan janji-janji AI. Namun, jalan untuk membangun aplikasi AI real-time sangatlah rumit. Para pengembang menyulap berbagai alat, bahasa dan antarmuka untuk menggabungkan model ML dan menarik konteks yang berharga dari berbagai tempat di mana data berada. Alur kerja yang terfragmentasi ini menyebabkan inefisiensi yang mahal, perlambatan operasi, dan halusinasi AI yang dapat merusak reputasi.
Menyederhanakan Jalan Menuju Kesuksesan AI
“Confluent membantu kami mempercepat adopsi copilot untuk pelanggan kami, memberikan akses kepada tim untuk mendapatkan pengetahuan organisasi yang berharga secara real-time,” kata Steffen Hoellinger, Co-founder dan CEO Airy. “Platform streaming data Confluent dengan Flink AI Model Inference menyederhanakan tumpukan teknologi kami dengan memungkinkan kami untuk bekerja secara langsung dengan large language models (LLM) dan basis data vektor untuk retrieval-augmented generation (RAG) dan schema intelligence, memberikan konteks real-time untuk pengunaan AI yang lebih cerdas. Hasilnya, pelanggan kami telah mencapai produktivitas yang lebih besar dan alur kerja yang lebih baik di seluruh operasi perusahaan mereka.”
Sebagai satu-satunya solusi pemrosesan stream tanpa server di pasar yang menyatukan pemrosesan real-time dan batch, Confluent Cloud untuk Apache Flink memberdayakan tim untuk dengan mudah menangani aliran data yang berkelanjutan dan beban kerja batch dalam satu platform. Hal ini menghilangkan kerumitan dan biaya operasional dalam mengelola solusi pemrosesan yang terpisah. Dengan fitur AI, ML, dan analitik yang baru saja dirilis ini, memungkinkan bisnis untuk merampingkan lebih banyak alur kerja dan membuka efisiensi yang lebih besar. Fitur-fitur ini tersedia dalam program akses awal, yang terbuka untuk pendaftaran bagi pelanggan Confluent Cloud
Flink Native Inference: Menjalankan model AI open source di Confluent Cloud tanpa manajemen infrastruktur tambahan. Saat bekerja dengan model ML dan pipeline data, pengembang sering kali menggunakan alat dan bahasa yang terpisah, sehingga menghasilkan alur kerja yang kompleks dan terfragmentasi serta data yang sudah ketinggalan zaman. Flink Native Inference menyederhanakan hal ini dengan memungkinkan tim untuk menjalankan open source atau model AI yang telah disesuaikan secara langsung di Confluent Cloud. Pendekatan ini menawarkan fleksibilitas yang lebih besar dan penghematan biaya. Selain itu, data tidak pernah meninggalkan platform untuk disimpulkan, sehingga menambah tingkat keamanan yang lebih baik.
Flink Search: Gunakan hanya satu antarmuka untuk mengakses data dari beberapa basis data vektor. Pencarian vektor memberikan konteks yang diperlukan bagi LLM untuk mencegah halusinasi dan memastikan hasil yang dapat dipercaya. Flink Search menyederhanakan pengaksesan data real-time dari basis data vektor, seperti MongoDB, Elasticsearch, dan Pinecone. Hal ini menghilangkan kebutuhan akan proses ETL yang rumit atau konsolidasi data manual, menghemat waktu dan sumber daya yang berharga sambil memastikan bahwa data kontekstual dan selalu menyediakan yang terbaru.
Fungsi Built-in ML: Membuat keterampilan ilmu data dapat diakses oleh lebih banyak tim. Banyak solusi sains data membutuhkan keahlian yang sangat khusus, menciptakan hambatan dalam siklus pengembangan. Fungsi ML bawaan menyederhanakan tugas-tugas kompleks, seperti peramalan, deteksi anomali, dan visualisasi real-time, langsung di Flink SQL. Fitur-fitur ini membuat AI real-time dapat diakses oleh lebih banyak pengembang, memungkinkan tim untuk mendapatkan wawasan yang dapat ditindaklanjuti dengan lebih cepat dan memberdayakan bisnis untuk membuat keputusan yang lebih cerdas dengan kecepatan dan kelincahan yang lebih besar.
“Kemampuan untuk mengintegrasikan data real-time, kontekstual, dan dapat dipercaya ke dalam model AI dan ML akan memberikan keunggulan kompetitif bagi perusahaan dengan AI,” ujar Stewart Bond, Vice President, Data Intelligence and Integration Software di IDC. “Organisasi perlu menyatukan pemrosesan data dan alur kerja AI untuk mendapatkan prediksi yang akurat dan respons LLM. Flink menyediakan antarmuka tunggal untuk mengatur inferensi dan pencarian vektor untuk RAG, dan membuatnya tersedia dalam implementasi cloud-native dan terkelola sepenuhnya akan membuat analitik real-time dan AI lebih mudah diakses dan dapat diterapkan pada masa depan AI generatif dan AI agentic.”