인공지능은 이상하게 만져보는 사람마다 해킹을 고민한다. 해킹을 부르는 기술이라고 해도 과언이 아니다. 그래서인지 비전문가들도 해킹 비슷한 방법들을 찾아내 적극 공유하고도 있다. 인공지능과 안전에 관한 사회적 논의가 필요하다.

[보안뉴스 문가용 기자] 삼성은 챗GPT라는 인공지능 기술의 사용을 일부 제한하기 시작했다. 포드 사와 폭스바겐 사는 자율주행 자동차 기술에 집중하던 자회사의 문을 닫았다. 2만 5천 명이 넘는 IT 분야 전문가들이 강력한 인공지능 알고리즘의 훈련을 중단해야 한다는 공개 서신에 서명했다. 인공지능의 명암이 이처럼 극명하게 갈린 시대가 있었나 싶다.

[보안뉴스 / 4.18.] 인공지능을 대상으로 한 모의 해킹, 그 동안 했던 레드팀 훈련과 다르다

[이미지 = utoimage]

과도한 반응일까? 디지털 아이덴티티 및 보안 솔루션 전문 업체 인럽트(Inrupt)의 부회장 데이비 오텐하이머(Davi Ottenheimer)는 “절대 아니다”라는 입장이다. 머신러닝과 인공지능은 너무나 강력한 기술이기에 모두가 잠시 멈춰서 더 나은 방향과 안전한 향상 방법을 정해둘 필요가 있다는 것이다. 챗GPT, 자율주행 자동차, 자율 운행 드론 기술 모두가 대상이 될 수 있다.

물론 인공지능 알고리즘을 개발하는 전문가들이 악용 가능성을 낮추기 위해 여러 가지 안전 장치를 마련해 두고 있기는 하다. 하지만 전 세계 수많은 사람들이 이리 저리 실험을 하다 보니 그런 안전 장치들을 우회하는 방법들도 무수히 개발되는 중이다. 이미 적잖은 전문가들이 챗GPT를 활용해 멀웨어를 만들었다. 당연히 ‘멀웨어를 만들어 달라’는 요청에 챗GPT가 응하는 것은 아니지만, 질문을 교묘히 바꿔가면 멀웨어를 만들 수 있다고 한다.

하지만 이러한 인공지능의 허점들은 아직 IT 업계, 특히 보안 업계 내에서만 화제가 되고 있다. 한두 분야가 아니라 사회 전반에 문제가 될 수 있는 문제임에도 말이다. 오텐하이머는 “인공지능을 농락하는 게 가능하다는 건 보안 문제가 아니라 공공 안전의 문제”라고 강조한다. 참고로 오텐하이머는 다음 주 미국에서 열리는 보안 전시회 RSAC에서 이러한 주제를 가지고 강연을 할 예정이다.

“모의 해킹이라는 관점에서 인공지능을 들여다보는 것 역시 ‘안전’의 관점에서 진행되어야 합니다. 즉 ‘보안’에 한정된 기존의 시야보다 넓은 관점에서 일을 진행해야 한다는 것이죠. 하지만 그 어떤 전문가도 그렇게 할 수가 없습니다. 인공지능과 관련하여 무엇이 안전한 것이고 안전하지 않은 것인지 사회적 논의가 이뤄지지 않고 있기 때문입니다. 모의 해킹 전문가들은 인공지능의 행동 패턴 등 주변 상황에 대해 검사할 수 있을 뿐이죠. 안전한 인공지능인지 아닌지 최종 결정을 내리는 건 사회 구성원들입니다.”

지금은 사회 구성원들이 ‘안전한 인공지능’에 관해 논해야 할 때라고 오텐하이머는 주장한다. 때 마침 챗GPT가 등장해 온 세상의 주목과 관심을 독차지 하고 있기에 논의에 참여할 사람이 많아질 수 있다는 것도 호재라고 그는 보고 있다. “챗GPT의 기반이 되는 ‘대형 언어 모델(LLM)’ 기술은 빠르게 발전하고 있습니다. 더 우리 생활 깊숙한 곳까지 들어오기 전에 안전한 인공지능 애플리케이션과 그렇지 않은 애플리케이션을 정해두어야 합니다.”

로봇 농락, 생각보다 쉬운 일
사회적 논의가 부족하다는 것에 더해, 인공지능 알고리즘을 제대로 설명할 방법이 없다는 사실도 인공지능을 취약하게 만든다. 알고리즘을 개발한 사람조차 인공지능이 어떤 방식으로 작동하는지 다 알 수 없고, 그러므로 누가 어떤 방식으로 공격해 어떤 결과를 만들어낼 지 전혀 예측할 수 없다. 모든 부정적인 결과에 대한 탐구가 충분히 이뤄지지 않고 세상에 알고리즘을 공개할 경우 재앙과 같은 일이 벌어질 수 있다고 오텐하이머는 경고한다.

“가상의 일에 대한 과도한 걱정이 아닙니다. 실제로 로봇이나 인공지능 알고리즘을 고장내는 건 매우 쉬운 일입니다. 굳이 IT나 해킹을 공부하지 않아도 인공지능을 가지고 몇 분만 장난치다 보면 인공지능이 엉뚱한 답을 하도록 만들 수 있습니다. 실제로 많은 이들이 인공지능을 기반으로 한 기술을 접하면 ‘어떻게 해야 이 인공지능이 바보처럼 대답할 수 있도록 만들까?’를 가장 고민합니다. 그리고 이런 주제로는 누가 시키지 않아도 활발히 이야기를 진행하죠. 본능처럼 느껴질 정도입니다.”

인공지능을 공격한다는 것이 얼마나 간단한 것인지는 이미 여러 차례 증명된 바 있다. 조지아공과대학과 프린스턴대학의 인공지능 연구 팀은 챗GPT를 활용해 각종 안전 장치들을 뚫어내고, 가상의 자아를 인터넷 공간에 만들어 사람들을 속이는 데 성공하기도 했다. 활용하기에 따라 챗GPT가 나쁜 인격을 가지고 온라인에서 사람처럼 행세를 할 수 있도록 할 수 있다고 연구원들은 주장했다.

이런 문제들이 세계 곳곳에서 제기되고 입증되고 있는데 아무런 해결책을 요구하지도, 제시하지도 않은 상황에서 온갖 회사들이 챗GPT를 이용하고, 자신들의 기술과 결합하느라 바쁘다. 조지아공과대학과 프린스턴대학의 연구원들은 “인공지능을 다루고 개발하는 사람들부터 한 발 떨어져 안전 장치에 대한 이야기를 먼저 해야 할 것”이라고 강조한다.

오텐하이머는 “인공지능을 대상으로 한 모의 해킹 기법이나 표준이 아직 정립되지 않았으므로 각 기업들이 각자의 기준을 가지고 실시해야 할 것”이라고 제안한다. “인공지능의 강력함에 매료되면 ‘인간인 내가 이 알고리즘에 대한 주인정신을 가지고 실험하고 점검해야 한다’는 생각이 잘 들지 않습니다. 하지만 그렇게 해야 합니다. 스스로 인공지능으로부터 엉뚱한 결과를 이끌어내기 위해 충분한 시간을 들여 여러 가지를 실험해야 합니다. 그래야 출시되었을 때 악몽과 같은 결과가 일어나는 걸 막을 수 있습니다.”

그 외에도 인공지능으로 인해 야기될 수 있는 프라이버시 문제도 오텐하이머는 지적한다. “LLM은 대량의 데이터를 학습하고, 그것을 바탕으로 강력한 기능성을 제공합니다. 대량의 데이터는 대부분 인터넷으로부터 나옵니다. 저작권이 있는 자료와 개인정보가 섞인 마구 긁어다가 학습에 사용하죠. 당연히 개인정보도 포함되고요. 그래서 일부 기업들은 챗GPT를 업무용으로 사용하지 말라고 합니다.”

이탈리아 정부의 경우 챗GPT의 개발사인 오픈AI(OpenAI)에 “4월 말까지 일반 대중들의 개인정보를 보호할 수 있는 방안을 마련하라”고 통보했다. 챗GPT가 인터넷에서 학습용 정보를 수집할 때 민감한 정보는 가져가지 않도록 하는 방법을 개발하라는 요구였다. 오픈AI가 어떤 식으로 대응을 하느냐에 따라 이탈리아의 이런 움직임은 유럽연합 전체로 퍼져갈 가능성이 높아 보인다고 오텐하이머는 강조했다.

3줄 요약
1. 인공지능에서 문제를 찾는 건 단순 모의 해킹이 아님.
2. 사회 전체가 참여하고 인지해야 하는 인공지능의 악용 사례들.
3. 인공지능 모델이 주요 프라이버시 침해범이 될 수도 있음.

[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>