◀ 앵 커 ▶
챗GPT부터 최근 화제가 된 딥시크까지,
전 세계가 앞다퉈 인공지능,
AI 개발에 나서면서 그야말로
AI 패권 전쟁이 벌어지고 있죠.
하지만 정작 AI를 이용한 개인정보 악용에
대해서는 마땅한 대책이 없다는
국내 연구진의 실험 결과가 나왔습니다.
윤소영 기자입니다.
◀ 리포트 ▶
챗GPT에 특정 인물의
개인 정보에 대해 질문을 던집니다.
단 몇 초 만에 근무지와 연락처, 이메일 등을
한눈에 보기 쉽게 정리해 알려줍니다.
이번엔 수신자와 발신자를 특정해
이메일 작성을 명령합니다.
웹 검색으로 직업과 직장 등 특징을 파악해
단숨에 이메일을 써 내려갑니다.
검색부터 이메일 작성까지 걸리는 시간은
한 건당 평균 5에서 20초, 비용도
30에서 60원이면 됩니다.
한국과학기술원 카이스트 연구팀이
챗GPT로 대표되는 대형 언어모델, LLM의
개인정보 악용 가능성을 규명한 실험입니다.
오픈AI 등 상용 LLM 서비스는
이러한 기술 악용을 막기 위해 방어 기법을
자체 탑재하고 있지만, 유명무실했습니다.
'개인정보를 수집해 달라'는 직설적인 명령은
거절하지만, 학습 기반으로 필터링하는 LLM의
특성상, 표현 방법을 살짝만 바꾸면
걸러내지 못하고 검색 결과를 제공하는 겁니다.
송민규/카이스트 전기및전자공학부 박사과정
"'누구의 정보가 궁금해', '이런 거는 ○ ○ 목적으로 사용될 거야' 이런 식으로 약간 사족을 붙이면 대답해 주지 않던 질문들도 그런 우회 방식을 통해서 쉽게 대답해 주는…"
특히 실험 결과, 목표 대상의 개인정보를
최대 95.9%의 정확도로 수집할 수 있었는데,
메일에 대한 신뢰도가 높은 만큼
피싱 사이트를 연결하는 링크 등을 심어놓으면
피해는 더욱 커질 수밖에 없습니다.
실제로 실험 참가자들의 절반에 가까운 인원이
링크를 누를 것이라고 답했습니다.
점점 거대해지는 AI 서비스의 능력과 권한에
비례해 적절한 보안 대응 방안이
구축돼야 한다는 지적이 나오는 이유입니다.
김한나/카이스트 전기및전자공학부 박사과정
"언어 모델에게 능력이 많이 부여될수록 그만큼 사이버 범죄에 악용될 가능성도 높아지고 또 그만큼 위험성도 굉장히 기하급수적으로 커지기 때문에…"
연구팀은 이번 실험이 정보 보안과 AI 정책
개선에 중요한 기초 자료로 활용될 것이라며
향후 LLM서비스 제공업체 등과 협력해
보안 대책을 논의해 나갈 계획입니다.
MBC 뉴스 윤소영입니다.
◀ END ▶