생성형 AI가 우리 삶 속에 깊숙이 침투하고 있다.
세일즈포스(Salesforce)가 발표한 '생성형AI 스냅샷 리서치'에 따르면 미국, 영국, 호주, 인도 등 국가에 거주하는 MZ세대의 약 65%가 챗GPT와 Stable Diffusion과 같은 생성형 AI를 업무와 일상 생활속에서 적극적으로 활용하고 있는 것으로 드러났다. (출처 : https://www.ciokorea.com/news/306931) 이처럼 생성형 AI를 비롯한 인공지능의 활용이 일상화 되고있는 요즘, 생성형AI에 대한 이해가 부족한 생성형AI 사용자들이 다양한 형태의 디지털 주권 침해의 위협에 노출될 위험이 갈수록 높아지고 있다.
개인정보 유출과 같이 디지털 주권을 위협하는 사이버 보안상의 문제는 1990년대 PC와 인터넷이 보급된 이후 언제나 존재해 왔다. 그러나 인공지능 시대의 디지털 주권 침해는 이전의 그것과는 그 성격과 파급력 측면에서 완전히 다르다. 이는 생성형AI가 작동하는 원리와 특성과 깊은 관계가 있다. 생성형AI는 어떠한 원리로 작동하며, 이러한 인공지능의 작동방식은 어떻게 우리의 디지털 주권을 위협하게 될 위험성을 내포하고 있을까? 생성형AI 시대에 우리의 디지털 주권을 위협하는 다양한 요소들을 알아보고 그 해결책을 살펴보도록 하자.
인공지능시대 디지털주권을 위협하는 다양한 요소들
1. 데이터 편향으로 인한 모델의 왜곡
현재의 생성형AI는 기본적으로 방대한 양의 사전학습된 데이터를 바탕으로 새로운 결과를 생성해 내는 지도학습(supervised learning) 방식으로 작동한다는 특성을 가지고 있다. 따라서 생성형AI는 학습 데이터의 품질에 크게 의존할 수 밖에 없으며, 특정 그룹이나 편향된 데이터를 사용할 경우, 모델이 왜곡되어 다양성과 공정성에 문제가 발생할 수 있다. 이로 인해 예측이 부정확해지거나, 특정 집단에 대한 편견이 모델에 반영될 수 있다.
예를 들어 생성형AI는 편향된 학습 데이터로 인해 특정 정치적 성향을 가지게 될 위험성을 가지고 있다. 지난 8월 미국의 워싱턴포스트에서는 정치적 중립을 표방하는 여러 생성형AI가 특정 정치 성향을 띄고 있다는 분석을 내놓기도 했다. 워싱턴포스트는 영국 이스트엥글리아 대학의 연구 사례를 소개하며 챗GPT나 LLaMA와 같은 초거대언어모델(LLM)에게 정치 및 경제 문제에 대한 62가지의 질문을 던지고 ‘긍정’ 혹은 ‘부정’으로 답하도록 지시 받았을 때, 뚜렷하게 다른 경향성을 보여준다고 한다.
연구에 따르면 OpenAI사의 챗GPT는 ‘진보’적인 성향에 가까운 답변을 많이 내놓았던 반면, LLaMA의 답변은 비교적 ‘보수’에 가까운 경향성을 보였다는 것이다. 이러한 생성형AI의 활용이 점점 더 늘어나게 되면 유권자들의 선택에 영향을 미치게 될 리스크가 있다.
2.인공지능 모델의 거대화 및 블랙박스화로 인한 판단력 상실
또한 생성형AI 모델의 성능을 결정하는 매개변수(parameter)와 학습 데이터(training data)를 기반으로 하는 알고리즘은 점점 더 거대화 되고 있으며 이러한 경향성은 최종 사용자가 생성형AI 모델이 어떠한 과정을 거쳐 결과물을 생성해 내는지 파악하기 어렵게 만드는 모델의 블랙박스화 문제를 야기하고 있다.
현재의 생성형AI는 복잡한 모델과 알고리즘을 기반으로 하고 있으며, 이로 인해 모델의 내부 작동 방식을 이해하거나 판단하는 것이 점점 더 어려워지고 있다. 이러한 블랙박스성은 의사결정 프로세스의 투명성과 책임성에 대한 문제를 야기할 수 있으며, 사용자들은 어떻게 결정이 이루어지는지 이해하기 어려우며 점점 더 인공지능에게 복잡한 의사결정을 위탁하고 주요사안들에 대해 판단하는 능력을 상실하게 될 가능성이 있다.
3. 학습용 데이터의 개인정보 유출 문제
위에서 살펴본 것처럼 생성형AI는 주어진 데이터를 기반으로 작동하며, 이는 때로 민감한 개인정보를 포함할 수 있다. 이 데이터가 무단으로 노출되거나 유출될 경우 개인의 프라이버시와 보안이 위협 받을 수 있다. 뿐만 아니라 생성형AI는 또한 사용자의 피드백(feedback)을 반영하여 더욱 자연스러운 결과물을 만들어 내는 강화학습(reinforcement learning)의 요소 역시 가지고 있어 디지털 주권 침해에 노출되기 쉽다. 개개인의 생성형AI 사용자들은 결국 인공지능 사용자이자 데이터 공급자이기도 하기 때문이다.
예를 들어 업무와 일상생활 속에서 생성형AI를 자주 활용하는 사용자들은 최근 화제가 되고있는 크리덴셜 스터핑(credential stuffing)과 같은 사이버 공격에 노출될 확률이 높다. 크리덴셜 스터핑이란 공격자가 사용자의 계정, 비밀번호, 기타 여러 가지 암호화된 개인 정보(Credential)를 여러 방식으로 획득하여 사용자가 이용할 만한 시스템 및 사이트에 방문 후 무작위로 대입(Stuffing)하는 공격 방식을 말하는데, (출처 : 한국재정정보원) 생성형AI에 질문이나 프롬프트(prompt) 입력 시 기업의 민감정보 등을 입력하게 될 경우 공격자들의 타겟이 될 확률이 높기 때문이다.
이처럼 생성형AI 사용자들은 개인정보 탈취 및 부정 재사용, 사용자 식별, 네트워크 등 개인의 디지털주권이 침해당할 위험에 노출되어 있다. 생성형AI 사용에 있어서 개인정보 보호 및 데이터 안전성에 대한 적절한 보호장치와 규제가 절실한 이유이다.
생성형AI 시대 디지털주권 침해를 막기 위한 해결책은?
이처럼 생성형AI의 확대와 함께 발생하는 이러한 문제들은 사용자의 데이터 프라이버시, 모델의 공정성, 그리고 기술적 투명성과 관련된 보안 및 윤리적인 문제들을 불러일으킬 수 있다. 이에 대한 적절한 대응책 마련과 함께 인공지능 알고리즘과 보안기술 모두를 고려한 조치가 필요하다.
이러한 디지털 주권 침해의 위협으로부터 스스로를 지킬 수 있는 해결책 중 하나로써 OTAC(One-Time Authentication Code)의 도입을 검토해볼 수 있다. OTAC를 개발한 센스톤은 지금까지 전혀 찾아볼 수 없었던 새로운 인증 방식인 OTAC를 바탕으로, 기존 인증 방법의 한계를 뛰어 넘는 새로운 인증 보안의 기준을 제시하는 보안전문업체이다.
센스톤이 자체 개발한 OTAC(One-Time Authentication Code)는 세계 최초의 단방향 다이내믹 인증 기술로, 비통신 환경에서도 실시간으로 매번 변경되는 일회성 인증 방식을 통해 사용자 또는 기기 식별과 인증을 동시에 지원한다. 특히, 생성된 코드는 다른 사용자와 절대 중복되지 않기 때문에 한층 강화된 인증 보안 환경 구현이 가능한 구조로 되어있다.
센스톤의 OTAC 기술은 ID와 비밀번호, 인증 코드 생성 RSA 하드웨어 및 소프트웨어, 토큰화(Tokenisation) 등 가장 보편적으로 사용되는 3가지 인증 시스템의 장점을 모두 제공한다. 개별 시스템들이 제공하는 기능이 모두 결합되어 있어 더욱 효율적이고 보다 효과적인 인증 프로세스를 보장하며, 통신 네트워크가 없거나 불안정한 환경에서도 사용자 및 기기 간 식별 및 인증을 동시에 지원하는 단방향 다이내믹 코드를 생성할 수 있다. 생성된 코드는 일회성으로 특정 시간대에 특정 사용자만이 사용하도록 허용되어, 다른 사용자가 사용하거나 재사용할 수 없다는 점도 큰 장점이다.