최신 기술을 가장 활발히 연구하고 활용하는 사람들은 아마 사이버 공격자들일 것이다. 이미 이들은 최신 기술을 가지고 자신들의 공격 행위를 보다 강력하게 탈바꿈시키고 있다. 방어자들 역시 같은 최신 기술로 무장할 필요가 있다.

[보안뉴스 문가용 기자] 2022년 미국 은행들은 4480억 달러어치의 P2P 거래를 처리했다. 그러니 P2P 금전 거래 생태계를 노리는 공격자들로서는 은행만큼 먹음직스러운 표적도 없다. 물론 은행은 늘 범죄자들이 제일 노리고 싶어 하는 표적이었다. 생각만큼 그 삼엄한 경비(물리든 사이버든)를 뚫기 힘들어서 실행을 못했을 뿐. 하지만 최근 인공지능이 발달함에 따라 이 상황이 바뀔 것 같다는 전망이 나오기 시작했다. 현존하는 사기 방지 시스템들을 인공지능으로 뚫어내는 방법들이 공격자들 사이에서 진지하게 연구되고 있기 때문이다.

[보안뉴스 / 6.13.] 인공지능 기반의 사기 탐지 기술, 같은 인공지능 공격자들을 막는다

[이미지 = gettyimagesbank]

온라인 사기 기술을 강화시켜주는 인공지능
디지털 전환의 흐름은 사회와 경제에 긍정적인 효과를 가져다 주고 있다. 동시에 사이버 범죄자들에게도 각종 기회를 제공하고 있다. 공격자들도 일반 기업들처럼 클라우드 인프라를 사용해 자신들의 운영(해킹 공격)을 효율적으로 실행하고 규모를 늘리며, 인공지능과 머신러닝 기술을 통해 공격을 자동화 하며, 이전에는 상상만 할 수 있던 것들을 실제로 실행하고 있다.

그래서 온라인 사기라는 것이 이제는 기계 대 기계의 싸움으로 흘러가고 있다. 사기꾼들이 클라우드와 인공지능 모델을 가지고 현존하는 사기 방지 기술을 무력화하면, 방어하는 기업들이 사례 연구를 통하여 공격자보다 우위에 있는 클라우드와 인공지능 기술을 사용해 추가 공격을 막는 식이다. 누가 더 나은 기술에 손을 대느냐가 사기를 막느냐 못 막느냐의 결과로 이어진다고도 볼 수 있다.

인공지능, 사기꾼들을 어떤 식으로 돕는가?
공격자들의 인공지능 활용법을 파악하려면 먼저 도소매 산업에서 흔히 사용되는 사기 방지 시스템에서부터 이야기를 시작해야 한다. 예를 들어 한 도소매 기업이 특정 위치와 시간대에 이뤄지는 900달러 이상의 거래 시도의 경우 2차 인증을 요구한다는 규칙을 설정했다고 하자. 당연히 이 규칙은 외부로 알려지지 않았다. 하지만 공격자가 인공지능 혹은 머신러닝 프로그램을 통해 여러 가지 조건에서의 거래를 시도하다 보면 해당 업체가 설정한 규정을 파악할 수 있게 된다.

그 후 공격자는 사기 거래를 시도할 때 900달러가 조금 안 되는 선 안에서, 그리고 알맞은 위치 설정을 통해 공격을 실시할 수 있게 된다. 이러한 방법론은 예전부터 존재해 왔었다. 하지만 규칙을 알아내기 위해 시행착오를 거치는 게 공격자 입장에서는 너무나 길고 힘든 과정이었다. 사람이 혼자서 수동 공격으로 숨겨진 규칙을 파악하는 게 쉬운 일은 아니다. 인공지능이 있어 이 과정을 빠르게, 고통없이 해결할 수 있게 된 것이다.

악성 인공지능은 얼마나 강력한지 고도화 된 방어형 인공지능 모델을 이런 식으로 두들기고 또 두들겨 약점을 찾아낼 수 있다. 인공지능 알고리즘의 내부 원리를 온전히 꿰뚫어 알 필요는 없다. 오로지 어떤 식으로 접근하면 비정상적으로 작동하는지만 알면 된다. 그렇기 때문에 인공지능의 작동 원리를 모른 채 대뜸 생산 환경에 접목시켜 운영한다는 건 사용자 입장에서 위험한 일이 된다. 나는 모르는데 공격자는 아는 뭔가를 회사에 스스로 심는 것이나 다름 없기 때문이다.

아직 사람은 인공지능이 어떤 식으로 작동해 결과를 내놓는지 온전히 이해하지 못하고 있다. 그렇기 때문에 한 번 당한 인공지능의 공격에 두 번, 세 번 당할 수 있다. 약간만 공격의 시나리오를 바꾼다면 속절없이 뚫리게 된다는 것이다. 인공지능으로 무장한 공격자는 여러 번의 반복적인 시행착오를 거쳐 성공적인 공격 시나리오를 얼마든지 빠르게 만들어낼 수 있다. 이것이 인공지능을 이용한 공격의 무서운 점이다.

게다가 그게 전부가 아니다. 인공지능은 사용자의 얼굴과 영상 몇 개를 가지고 가짜 사진과 영상을 스스로 만들어낼 수 있기도 하다. 단지 이 기술 하나만으로도 사기에 당하는 사람들이 이미 생겨나고 있다. 인공지능은 완전히 새로운 인물의 사진도 만들 수 있어 가짜 온라인 페르소나를 운영하는 데에도 큰 도움이 된다. 사용자의 마우스 움직임이나 오타 생성 습관까지 학습해 누군가를 똑같이 흉내낼 수도 있다. 그러므로 인간과 봇을 구분하는 장치들을 무력화시키게 된다. 공격자들 편에서의 인공지능 활용법은 실로 무궁무진하다.

그렇다면 어떻게 방어할 수 있을까?
어떤 도구를 가지고 있던 일반적으로는 공격을 하는 자가 방어를 하는 자보다 우위에 서 있는 게 사실이다. 사이버 범죄에 있어서도 마찬가지다. 하지만 그렇다고 해서 그들이 무적인 건 아니다. 모든 공격이 하나같이 창의적이고 전에 없던 획기적 발상으로 고안된 것은 아니라는 것이다. 그들에게도 패턴이 존재한다. 방어자의 입장에서는 공격자의 패턴을 파악함으로써 예측하고 예방할 수 있다. 예를 들어 인공지능을 활용해 공격자들이 어떤 식으로 인간을 흉내 내는지를 파악하면, 좀 더 강력한 봇 탐지 기술을 완성시킬 수 있게 된다.

심지어 인공지능을 활용해 방어자들에게 유리한 전장으로 싸움을 옮길 수도 있다. 예를 들어 사기 탐지 및 예방 장치를 네트워크의 에지에 장착하면 어떻게 될까? 즉 실제 온라인 거래가 이뤄지는 장비에 최대한 가까운 곳(논리적으로)에 사기 탐지 장치를 구축한다면, 공격자들이 자주 찔러볼 것이 바로 이 엔드포인트이기 때문에 비정상 행동 패턴이 훨씬 많이 탐지될 것이다. 정확도도 높아질 것이고 말이다.

CDN 등 현존하는 인프라를 활용한다면 사기 탐지 기술을 비교적 쉽고 부드럽게 에지 근처로 이동시킬 수 있게 된다. 그렇게 했을 때 각종 비정상적인 행동에 대한 상세 정보를 얻을 수 있을 뿐만 아니라 정상적인 사용자 행동과 경험에 대한 정보도 한층 더 두텁게 쌓이게 된다. 그러므로 정상과 비정상의 구분이 갈수록 명확해질 수 있고, 이는 우리 편의 인공지능을 더 유리하게 만든다.

인공지능은 빠르게 벼려지고 날카롭게 다듬어지고 있다. 공격자에게든 방어자에게든 점점 더 효율성 높고 강력한 무기가 되어가는 것이다. 그러므로 이 훌륭한 도구를 공격이 가장 활발히 일어나는 곳으로 옮겨 심어 잠재된 능력을 최대한으로 끌어올리는 것이 필요하다. 그래야 같은 강력함으로 무장한 공격자들의 성공 가능성을 낮출 수 있다. 강력한 무기로 치고 들어오는 자들을 최전선에서부터 우리의 가장 강력한 무기로 대응해야 한다. 그렇게 함으로써 기계들의 싸움은 본격적으로 시작될 것이다.

글 : 아나스 군다바툴라(Dr. Ananth Gundabattula), 창립자, Darwinium
[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>