인공지능은 이제 일상 생활 어디에나 있으며 전쟁도 예외는 아니다. 보고서에 따르면 2020년 1월, 이란의 최고 핵과학자가 분당 600발을 발사할 수 있는 AI 소총으로 암살되었다. 러시아와 중국은 빠르게 발전하고 있으며 일부 경우에는 AI가 지원하는 비정규전 능력을 배치하고 있으며 우리의 일상 생활에 동력을 제공하는 AI 시스템이 이제 바람직하지 않은 결과를 만들어 내는 것은 시간 문제이다.
전략적 경쟁에서 AI와 기계 학습의 역할을 감안할 때 우리는 이러한 시스템이 제기하는 위험과 전략적 이점을 창출하는 능력을 이해해야 한다. 이에 中 보안매체는 객체 인식 문제를 기본 예제로 하여 AI 시스템의 학습과 사고를 분석했다. 그리고 이러한 분석은 두 가지 중요한 결론을 도출한다. 첫째, AI를 사용하는 모든 프로세스에는 인간이 참여해야 한다. 둘째, AI는 강대국 경쟁 시대에 미국에 전략적 이점을 제공하지 못할 수도 있지만 AI의 윤리적 사용에 지속적으로 투자하고 장려해야 한다.
다른 군사 시스템과 마찬가지로 AI시스템은 개발(데이터수집 및 교육), 테스트, 운영 및 유지관리와 같은 다양한 수명 주기 단계를 거친다. 이러한 각 단계에는 식별해야 하는 고유한 취약점이 있다. 우리는 적의 장갑차를 인식하는 것을 학습하는 가상의 AI 표적 인식 시스템을 계속 개발해야 한다.
[출처 : 中보안매체 / 1.22.]
댓글을 남겨주세요
로그인 후 댓글을 작성할 수 있습니다.