
글로벌 정보기술(IT) 기업 IBM이 컨플루언트(Confluent) 인수를 추진하는 것은 인공지능(AI)의 핵심인 실시간 데이터를 효과적으로 처리할 수 있는 '중간 허브(hub)' 기술을 확보하기 위해서다.
컨플루언트의 핵심 기술은 오픈소스 기반의 '카프카(Kafka)'다. 오픈소스 기반의 카프카는 실시간으로 쏟아지는 데이터를 처리하는 과정에서 허브 역할을 한다. 각종 금융거래와 사물인터넷(IoT) 스트리밍 영상 등 초 단위로 빠르게 유입되는 데이터는 중간에 완충재가 없으면 데이터가 손실되거나 처리 지연이 발생할 수 있다. 카프카는 데이터를 중간에서 안전하게 받아 잠시 저장한 뒤 필요한 목적지로 전달한다. 들어온 데이터를 데이터베이스(DB)·앱·다른 스트리밍 서비스 등으로 동시에 효과적으로 나눠주는 역할도 담당한다.
이러한 특성 덕분에 카프카는 △금융기관의 트랜잭션 처리 △제조 현장의 센서 데이터 관리 △넷플릭스와 같은 스트리밍 서비스 등 실시간성이 중요한 산업에서 범용적으로 활용되고 있다. IBM이 컨플루언트를 인수했다는 것은 이 광범위한 실시간 데이터 처리 시장에서 강력한 무기를 확보했다는 의미로 해석된다.

이번 인수는 IBM이 앞서 단행했던 인수합병(M&A)과 연결해 볼 때 그 의미가 더욱 명확해진다. IBM은 올해 6월 오픈소스 기반 DB 기업 데이터스택스(DataStax)를 인수했다. 데이터스택스는 오픈소스 기반의 DB '카산드라(Cassandra)'를 보유했다. 카산드라는 빠르게 들어오는 실시간 데이터를 저장하는 데 최적화된 DB다. IBM은 컨플루언트와 데이터스택스를 인수하면서 제조·금융·소매 등에서 발생하는 실시간 데이터를 끊김 없이 받아(카프카) 즉시 저장·분석할 수 있는(카산드라) 데이터 처리 체계를 갖추게 됐다.
IBM은 이미 한국에서도 모 금융기관과 진행한 기술검증(PoC) 과정에서 컨플루언트의 카프카를 적용했다. 당시 카프카는 여러 시스템에서 발생하는 데이터를 받아 다양한 앱과 DB로 동시에 전달하는 역할을 수행했다. 실시간 데이터 처리가 많은 금융업 특성상 이 같은 스트리밍 처리 기술은 안정적인 시스템 운영의 핵심으로 꼽힌다.
IBM은 해시코프 인수 발표(2024년)에 이어 데이터스택스와 컨플루언트까지 연달아 확보하며 AI 시대에 맞춘 데이터 기술 포트폴리오를 빠르게 확장하고 있다. 이는 AI의 핵심은 데이터라는 전략적 판단에 의한 행보로 풀이된다.
이수정 한국IBM 사장은 이달 9일 서울 영등포구 여의도 IFC 한국IBM 사무실에서 열린 기자간담회에서 "IBM이 주요 국가의 기업 최고경영자(CEO)들을 대상으로 실시한 설문조사에서 72%가 기업 고유의 데이터가 생성형 AI의 가치를 실현하는데 핵심이라고 답했다"며 "기업들이 사업을 수행하며 쌓은 데이터가 AI를 위한 귀중한 자산"이라고 강조했다.
박현준 기자
Copyright © 블로터