[서울=뉴스핌] 이나영 기자= 생성형 인공지능(AI)이 빠르게 일상 속으로 스며들고 있는 가운데 데이터 신뢰성과 정확성을 강화한 AI 기술을 보유한 국내 기업들도 주목받고 있다. 그 중 하나인 AI 솔루션 기업 스카이월드와이드(SKAI)는 생성형 AI의 '할루시네이션(Hallucination)' 문제를 해결할 수 있는 기술력으로 관심을 모은다.
4일 방송통신위원회와 정보통신정책연구원이 최근 발표한 '2024년 지능정보사회 이용자 패널조사'에 따르면, 국민 4명 중 1명(24.0%)은 챗GPT(ChatGPT) 등 생성형 AI를 직접 이용해본 경험이 있다고 응답했다. 이는 지난해 대비 두 배 가까이 증가한 수치다. 유료 구독 경험자 역시 0.9%에서 7.0%로 급증하며, AI가 단순한 실험적 기술에서 대중적 도구로 자리매김하고 있음을 보여준다.
![]() |
[사진=로이터] |
생성형 AI의 활용 범위는 지속적으로 확대되고 있다. 텍스트 생성(57.2%)은 물론 음성·음악(21.4%), 이미지 생성(11.8%)까지 다양한 형태로 사용되며, 정보 검색, 일상 업무 보조, 심리적 교감 등 다양한 목적을 충족시키고 있다.
반면, AI 확산과 함께 그 부작용에 대한 우려도 뚜렷하다. 응답자 다수는 AI의 일자리 대체(60.9%), 창의성 저하(60.4%), 저작권 침해(58.8%), 범죄 악용(58.7%) 가능성에 공감했으며, 특히 부정확한 정보 생성과 데이터 편향성 문제에 대한 인식이 높게 나타났다.
특히 전체 응답자의 절반 이상은 복수의 응답을 통해 ▲생성형 AI가 존재하지 않는 정보를 만들어낼 수 있다 ▲생성형 AI가 거짓 정보를 퍼뜨리는 데 악용될 수 있다 ▲생성형 AI가 진짜와 가짜를 구별하기 어려운 콘텐츠를 생성한다 ▲생성형 AI가 특정 관점이나 생각에 편향된 내용을 만든다 ▲편향된 AI 결과물이 사람들의 왜곡된 인식을 더욱 강화할 수 있다 등 AI가 제공하는 답변에 대한 신뢰성에 의문을 제기했다.
이 같은 현상은 생성형 AI가 정보를 '판단'하지 않고, 입력된 질문에 대해 확률적으로 가장 그럴듯한 단어를 조합해 응답을 생성하는 방식에서 비롯된다. 이 과정에서 실제로 존재하지 않는 사실을 사실처럼 만들어내는 오류가 발생할 수 있으며, 이를 '할루시네이션'이라 부른다. 특히 질문이 모호하거나, 학습 데이터가 부족하거나 정확하지 않은 경우 이러한 오류 가능성은 더욱 커진다.
이처럼 생성형 AI의 활용이 일상으로 확산됨에 따라, 신뢰성과 정확성을 확보할 수 있는 기술적 해법 마련이 중요한 과제로 떠오르고 있다. 이러한 가운데 국내 AI 솔루션 기업 스카이월드와이드'는 생성형 AI의 고질적인 문제로 지적되는 데이터 편향성과 응답의 부정확성을 개선하기 위한 기술 개발에 주력해 왔다.
특히 스카이월드와이드는 기존의 검색 기반 생성형 AI 방식인 RAG(Retrieval-Augmented Generation) 기술에 더해, '그래프RAG(Graph RAG)'이라는 고도화된 기술을 보유하고 있다. 이 기술은 단순히 문장 속 단어를 벡터화해 저장하는 방식이 아닌, 정보를 명확한 의미 관계로 구조화한 지식그래프(GraphDB) 형태로 저장하고 활용한다.
또한 사용자가 정의한 도메인별 지식 구조에 맞춰 데이터를 저장하고 활용하기 때문에 보다 정확하고 일관된 응답 생성이 가능하다. 특정 분야에 특화된 고품질의 정보 제공은 물론, 편향된 응답 가능성을 줄이는 데 효과적이다. AI가 결과를 생성할 때 '왜 그런 응답이 나왔는지' 설명 가능한 기반이 되는 것도 강점으로 꼽힌다.
생성형 AI가 일상에 깊숙이 자리 잡으면서 정보의 신뢰성과 정확성을 확보하기 위한 기술적 기반 마련이 핵심 과제로 부상하고 있다. 전문가들은 AI의 응답을 무비판적으로 수용하기보다, 신뢰할 수 있는 기술 위에서 검증된 정보를 선별적으로 활용할 수 있는 환경 조성이 필요하다고 지적한다. 생성형 AI의 품질을 높이기 위한 기술 개발이 본격화된 만큼, 이를 실제 서비스에 적용하려는 움직임도 한층 가속화될 것으로 전망된다.
nylee54@newspim.com