2025년, 우리는 정보 과잉의 시대를 넘어서 진실 고갈의 시대에 진입했습니다. 기술은 빠르게 진보했지만, 진실을 구별하는 기준은 그만큼 명확하지 않습니다. 특히 생성형 AI(Generative AI) 기술이 범용화되면서, 누구나 정교한 ‘뉴스처럼 보이는’ 가짜 콘텐츠를 빠르게 생산할 수 있게 되었습니다.
과거에는 의도적인 가짜 뉴스 생산이 일부 집단에 국한되었지만, 이제는 악의적 목적이 없는 일반 사용자조차 생성AI 도구를 통해 왜곡된 정보를 무심코 확산시키는 경우도 증가하고 있습니다.
AI가 만든 가짜 뉴스는 단순한 정보 왜곡이 아니라, 사회적 신뢰와 민주주의 질서를 흔드는 구조적 위협으로 작용하고 있으며 국가 차원의 대응과 시민 개개인의 미디어 리터러시가 절실한 상황입니다.
1. 생성AI, 가짜 뉴스의 ‘자동공장’이 되다
2022년 공개된 ChatGPT를 필두로 Claude, Gemini, Llama, HyperCLOVA 등 생성형 AI 모델은 불과 2년 만에 전 세계 수억 명의 손에 들려졌습니다. 이제 텍스트, 이미지, 음성, 영상까지 ‘AI가 만들어낸 정보’가 매일 10억 단위를 넘는 수준으로 생성되고 있습니다.
이러한 AI는 단순한 정보 요약이나 번역을 넘어 “이 뉴스에 대해 기사 형식으로 써줘”, “이 사람을 비난하는 트위터 글 10개 써줘”, “이 주제에 대해 전문 블로그를 써줘” 같은 프롬프트에 몇 초 만에 응답합니다.
대표적인 문제점:
- 정확성 검증 없음: 생성AI는 진실과 거짓을 구분하지 않습니다. 학습된 데이터를 바탕으로 ‘그럴듯한 문장’을 만들어낼 뿐입니다.
- 기사 문체 학습: GPT 등은 수많은 언론기사 스타일을 학습해 실제 기사처럼 보이게 구성합니다.
- 가짜 전문가 인용 삽입: 실존하지 않는 인물을 인용하거나, 실제 존재하더라도 왜곡된 문맥으로 오용하는 사례가 발생합니다.
- 자동화 확산 구조: 자동 블로그 업로더, 뉴스봇, SNS 연동 기능으로 인해 AI가 만든 콘텐츠가 빠르게 확산됩니다.
현실 사례: 2024년 말, 한국의 한 유명 정치인이 ‘비자금 관련 조사 중’이라는 가짜 뉴스가 검색어 1위를 기록했습니다. 해당 기사는 AI가 기존 기사 스타일을 모방해 제작한 것이었으며, 출처는 없는 상태에서 수만 명에게 공유됐습니다.
2. 생성AI 기반 가짜 뉴스의 사회적 파급력
생성AI로 만들어진 허위 정보가 진짜처럼 받아들여질 때 가장 위험한 지점은 단순히 개인이 속는 것이 아니라, 사회의 정보 기반 자체가 무너지는 것입니다.
주요 파급 효과:
가. 선거와 정치의 왜곡
2024년 미국 대선에서는 AI로 생성된 오디오 클립에서 바이든 대통령이 ‘사임을 고려한다’는 가짜 발언이 퍼졌고, 일시적으로 민주당 지지율이 하락하는 결과를 낳았습니다. 한국에서도 다가오는 총선을 앞두고 AI로 생성된 특정 후보자의 발언 영상이 편집·조작되어 중앙선관위가 조사에 착수했습니다.
나. 금융시장 불안
생성AI 기반 뉴스가 “A기업 CEO 전격 사임”, “B은행 파산 루머 확산 중” 같은 헤드라인을 달면 단기적으로 주가나 채권 시장이 요동칩니다. 2023년 말 한 AI 커뮤니티에서 생성된 가짜 블룸버그 기사로 인해 특정 코인의 가격이 35% 급등락하는 사건이 있었습니다.
다. 집단 간 갈등 조장
AI는 소수자 혐오, 정치 편향, 특정 종교 공격 등 극단적인 감정을 자극하는 콘텐츠를 손쉽게 생성할 수 있습니다. 특히 유튜브 쇼츠, 인스타 릴스, 틱톡 등의 숏폼 플랫폼에서 AI가 생성한 선동 영상은 더 빠르게 확산됩니다.
3. 기술과 제도의 대응은 어디까지 왔나?
3-1. 기술적 대응: 생성 콘텐츠 식별 기술
- Google DeepMind는 AI가 작성한 텍스트에 암호화된 디지털 서명을 삽입하는 ‘SynthID’ 기술을 공개했습니다.
- OpenAI는 GPT가 생성한 텍스트를 구분하는 워터마크 기술을 테스트 중입니다.
- 국내 포털도 AI 콘텐츠 자동 감지 시스템을 시험적으로 도입했으며, 네이버는 뉴스검색에 AI 표시 기능을 추가할 계획입니다.
하지만 이 기술들이 완벽하지 않다는 것이 문제입니다. 워터마크나 서명은 복사·편집되면 손상되며, 악의적 사용자는 이를 회피할 수 있습니다.
3-2. 법적·제도적 대응
- EU는 2025년부터 ‘AI법(AI Act)’을 시행하며, 생성AI 콘텐츠에 반드시 AI 생성물 표시를 의무화합니다.
- 한국은 생성AI 정보표시법을 입법 예고한 상태로, AI가 만든 정보는 출처 및 책임 주체 명시를 요구받게 됩니다.
- 미국은 FTC 중심으로 생성AI 기반 허위광고 및 조작 정보 규제 논의를 강화하고 있습니다.
하지만 AI 기술의 발전 속도가 너무 빠르기 때문에 법제도는 여전히 뒤처져 있다는 비판이 나옵니다.
4. 우리는 무엇을 할 수 있는가?
첫째, 시민의 정보 감별 능력 강화
가짜 뉴스는 누가 만들어냈는가보다 누가 그것을 믿고 확산시키는가가 더 중요합니다. 우리는 AI가 만든 정보가 사실이 아닐 수도 있다는 전제를 갖고, 출처를 확인하고, 인용된 전문가가 실존 인물인지 점검하며, 교차검증하는 습관을 가져야 합니다.
둘째, AI 플랫폼에 대한 책임 요구
AI를 만든 기업은 단지 “기술만 제공했다”는 입장에 머물러선 안 됩니다. 특정 주제(정치, 건강, 금융 등)에 대해 정보 신뢰도 기준을 마련하고, 프롬프트 제한 기능과 악용 탐지 시스템을 강화해야 합니다.
셋째, 교육 시스템의 변화
초·중등 교육과정에 ‘AI 미디어 리터러시’ 과목이 필요합니다. 청소년들이 정보의 신뢰도를 판단하고, AI가 만들어낸 콘텐츠의 위험성과 구별법을 인지할 수 있도록 돕는 교육정책이 필요합니다.
기술의 진화보다 진실의 방어가 더 중요해진 시대
AI는 진실을 왜곡하려고 만들어진 기술은 아닙니다. 그러나 이 기술을 사용하는 인간의 의도와 사회 구조 속에서의 맥락에 따라 AI는 거짓의 증폭기가 될 수도 있습니다.
우리가 진실을 지키려면, 기술에 대한 맹신도, 인간에 대한 맹신도 아닌, 검증과 책임이라는 태도가 필요합니다. 가짜 뉴스의 시대에 진실을 보호하는 것은 더 이상 언론의 몫만이 아닙니다. 우리 모두가 진실의 소비자이자 방어자이며, AI 시대를 살아가는 시민의 책임입니다.