인공지능이 사이버보안 분야에 미칠 '진짜 영향력'
페이지 정보
작성자 게시판관리자 작성일23-04-13 09:23 조회3,407회 댓글0건관련링크
본문
인공지능이 사이버보안 분야에 미칠 '진짜 영향력'
인공지능이 컴퓨터 보안을 위협할 정도로 영리해질것인가?
AI는 이미 어떤 화풍의 걸작품도 즉시 만들어내며 미술계를 놀라게 하고 있다.
또 방대한 저장소에서 난해한 사실을 찾아내는 동시에 시를 쓸 수도 있다.
이처럼 최고의 검색 엔진이 갖춘 기능을 종합적으로 제공하면서 시인 행세까지 할 수 있다면,
AI가 보안 프로토콜을 파괴하지 못할 이유가 무엇인가?
이 질문에 대한 답은 복잡하고 빠르게 진화하고 있으며 아직 불확실하다.
공격으로부터 컴퓨터를 방어하는 일에 AI가 도움이 되는
반면, AI로는 물론 인간 지능으로도 결코 해결할 수 없는 부분이 있다.
이 두 가지를 구분하는 것은 어렵다.
새로운 모델이 빠르게 진화하기 때문에 AI가 어디에 도움이 될지 아닐지 단언할 수는 없다.
“AI는 절대로 하지 않을 것이다”는 말이 가장 위험할 수도 있다.
인공지능 및 머신러닝의 정의
“인공지능”과 “머신러닝”은 자주 서로 혼용되지만 같은 말이 아니다. AI는 인간 행동을 모방하고 그 이상을 가능케 하는 기술을 말한다. 머신러닝은 인간의 개입 없이 인사이트를 얻도록 알고리즘을 사용해 데이터 내의 패턴을 파악하는 AI 하위집합이다. 머신러닝의 목적은 인간이나 컴퓨터가 더 나은 의사결정을 하도록 돕는 것이다. 오늘날 상용 제품에서 AI라고 하는 것의 많은 부분은 사실 머신러닝이다.
AI는 시스템 방어나 침투를 하는 사람들에게 즉각적으로 유용한 강점을 갖고 있다. 대량의 데이터에서 패턴을 검색할 수 있고 새로운 이벤트를 기존 이벤트와 연관시키는 방법을 자주 찾아낸다.
머신러닝 기법에는 매우 통계적인 것이 많다. 컴퓨터 시스템과 암호 알고리즘에 대한 공격도 그렇다. 새로운 머신러닝 툴킷이 널리 보급되면서 공격자와 방어자가 알고리즘을 시험해볼 수 있게 되었다. 공격자는 약점을 찾기 위해, 방어자들은 공격자의 징후를 살피기 위해 알고리즘을 사용한다.
AI는 기대에 못 미치기도 하고 실패할 때도 있다. 훈련 데이터 집합 내에 있는 것만 표현할 수 있으며, 컴퓨터가 자주 그러하듯이 지나치게 문자 그대로 해석한다. 또한 무작위성을 사용하기 때문에 예측불가능하고 비결정적인 특성을 “온도”라고 부르기도 한다.
사이버보안에서의 인공지능 활용 사례
컴퓨터 보안도 여러 측면을 다루며 시스템을 방어하려면 난해한 수학 분야와 네트워크 분석, 소프트웨어 엔지니어링에 관심을 기울여야 한다. 상황이 더 복잡한 것은 인간이 시스템의 큰 부분을 차지하기 때문이며, 인간의 약점을 이해하는 것이 필수적이다.
또한, 컴퓨터 보안 분야는 서로 많이 다른 여러 하위 전문분야가 혼합되어 있다. 예컨대 악성 패킷을 탐지하여 네트워크 계층을 안전하게 보호하는 방법이 해시 알고리즘을 강화하는 데는 무용지물일 수도 있다.
새로운 기술을 사용하여 암호 알고리즘을 해독하는 방법을 탐색한 바 있는 레질리안(Resilian) CEO 폴 코처는 “분명 AI로 진전을 이룰 수 있는 분야가 있다. 버그 사냥과 코드 재확인 같은 경우에는 퍼징(fuzzing, 결함을 유발하기 위해 작은 무작위 오류를 도입하는 과정)보다 AI가 더 나을 것이다”라고 말했다.
이와 같은 방식으로 이미 성공을 거두고 있는 사례도 있다. 가장 간단한 예는 예전의 지식을 정형화하여 다시 사용하는 것이다. 코인베이스(Coinbase) 책임자 코너 그로건은 챗GPT에게 이더리움 블록체인에서 실행 중인 실시간 계약을 확인할 것을 요청했고 그 결과 AI는 약점들과 수정에 필요한 권장 사항을 간결한 목록으로 제시했다.
AI는 이 작업을 어떻게 수행했을까? 메커니즘은 불분명하지만, 아마도 과거에 있었던 비슷한 약점에 대한 공개적인 토론을 어떤 형태로든 활용했을 것이다. 전문가의 지도나 맞춤형 프로그래밍 없이도 이전의 인사이트를 새로운 코드와 결합하여 해결할 문제를 정리한 유용한 목록을 작성했다.
마이크로소프트는 이 방식을 상업화하기 시작했다. 프로토콜과 암호 알고리즘의 기본 지식을 갖춘 챗GPT4의 보안 버전인 AI 보안 코파일럿(Security Copilot)을 훈련시켜 프롬프트에 응답하고 인간을 지원할 수 있도록 했다.
대형언어모델에 내장된 깊고 광범위한 지식 저장소를 활용하는 사례도 있다. 클라로티(Claroty) 연구진은 코딩에 대한 백과사전식 지식을 갖춘 챗GPT를 활용하여 시간을 절약했고 여러 약점을 일제히 악용하는 코드도 작성하여 해킹 대회에서 우승했다.
공격자도 AI의 코드 작성 및 재작성 능력을 이용할 수 있다. 릴리아퀘스트(ReliaQuest) CTO 조 파틀로는 우리는 사실 AI가 실제로 어떻게 “생각”하는지 모르는데 이러한 불투명성이 유용하게 활용될 수 있다면서 “코덱스(Codex)나 깃허브 코파일럿(Github Copilot)와 같은 코드 완성모델이 이미 소프트웨어 작성을 돕고 있고 AI로 생성된 맬웨어 변이도 이미 확인되었다. 예를 들어, 부정직한 C 대회 우승자에 대해 모델을 훈련시키면 효과적인 뒷문을 고안할 수 있다”라고 말했다.
이미 자리잡은 일부 기업은 AI를 사용하여 기업 환경 내 네트워크 이상 등의 문제를 탐색하고 있다. 머신러닝과 통계적 추론을 결합하여 수상한 행동을 감지하는 것이다.
원문보기:
https://www.itworld.co.kr/news/286495#csidx9783ea1de445ecf92c1291be35c2103
댓글목록
등록된 댓글이 없습니다.