뉴스

SBS 뉴스 상단 메뉴

점점 더 진짜 같아지는 '가짜'…의심부터 하는 세상 될까

<앵커>

이렇게 인공지능 기술로 손쉽게 만들어낸 영상은 성능이 더 뛰어난 반도체를 사용하면 할수록 더욱 정교해집니다.

만약 진짜와 가짜를 구분하기 어려울 정도로 기술이 더욱 발달한다면 그것이 우리 삶에는 어떤 영향을 미칠지, 이 부분은 임태우 기자가 짚어봤습니다.

<기자>

신이 난 듯 늑대 새끼 3마리가 뛰어놉니다.

그런데 보이지 않던 새끼들이 마술처럼 생깁니다.

도쿄 밤거리를 걷고 있는 여성의 다리가 불안정하게 움직이더니 비현실적으로 뒤바뀌고, 생일 케이크 위 촛불들은 저마다 다른 방향을 향하고 있습니다.

오픈AI의 '소라'가 생성한 영상들인데, 물리적 세계에서는 나타날 수 없는 현상들입니다.

다음 장면이 무엇이 될지, 확률을 따져가며 영상을 생성하는 AI가 경우에 따라서는 엉뚱한 결과물을 만들어내는 것입니다.

[김동환/포티투마루 대표 : 확률이라는 거는 이렇게 오차가 있잖아요? 확률이 포함돼 있기 때문에 어쩔 수 없이 발생하는 문제라고 볼 수 있거든요.]

오픈AI는 영상 생성에 더 많은 컴퓨터 자원을 쓸수록 이런 오류가 줄고, 영상은 더욱 정교해질 것이라고 설명합니다.

샘 올트먼 CEO가 7조 달러, 우리 돈 9천300조 원을 유치해 성능 좋은 AI 반도체를 만들려는 이유입니다.

이런 AI 기술 발전은 인간 사회를 크게 위협할 수도 있습니다.

우선 사생활 침해와 저작권 시비가 불가피합니다.

특히 정교해진 딥페이크는 '보는 게 믿는 것'이라는 오래된 인식 구조와 사회 신뢰를 무너뜨릴 가능성이 있습니다.

선거나 전쟁과 결합되면 그 파장은 가늠하기도 어렵습니다.

[윤혜선/한양대 법학전문대학원 교수 : (가짜) 콘텐츠를 식별해내고 구별해낼 수 있는 기술을 개발하지만, 그것도 우회할 수 있는 기술들을 또 만들어내기 때문에 피해는 고스란히 우리 사회가 지게 되지 않겠느냐….]

오픈AI는 잘못된 정보나 혐오 콘텐츠, 편견 등에 관한 전문가를 구성해 안전성 테스트를 하며 일반 공개를 미루고 있지만, 급속하게 발전하는 AI 기술을 제어할 사회적 합의와 제도 정비가 시급해졌습니다.

(영상편집 : 황지영)

▶ "직접 찍은 줄" 글 쓰자 영상 뚝딱…'물리법칙' 이해한 AI
Copyright Ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

스브스프리미엄

스브스프리미엄이란?

    많이 본 뉴스