올해 초, 필자는 2024년이 사이버보안 실무자가 사이버 격차를 극복하는 해가 될 것으로 전망했다. AI를 사이버보안에 활용하는 사례가 늘어나고 기술 제공업체는 생성형 AI를 자사 보안 제품 및 서비스에 통합하며, AI를 악의적인 시뮬레이션 및 딥페이크와 같은 공격에 대한 대응책으로 활용할 것으로 예상했다.
시간이 흘러 올해 마지막 분기에 접어들면서, 많은 기업의 사이버보안팀이 생성형 AI를 사이버 보안에 활용하는 방안을 모색하기 시작했다. 대부분 목표는 인시던트 관리 시 탐지, 격리, 제거 단계를 신속하게 진행하고 위험 평가를 개선하는 데 있다. 생성형 AI는 사건의 근본 원인을 파악해 격리 및 제거 단계를 촉진하는 데 큰 도움이 될 수 있다.
하지만 일부 솔루션 업체는 시장을 선점하기 위해 적절한 안전장치를 마련하지 않고 생성형 AI 물결을 타려고 한다. 이런 업체는 제품 출시를 서두르며, 잠재적인 문제를 출시 전 해결하려 하기 보다는 로드맵으로 개선 사항을 미루는 경우가 많다.
이런 가운데 필자는 생성형 AI가 가트너 하이프 사이클 '기대의 정점(Peak of Inflated Expectations)'을 지나 '환멸의 골짜기(Trough of Disillusionment)' 단계로 접어들고 있다고 본다. 이는 최종 사용자가 기대치와 현실을 일치시키는 적절한 지점을 찾는 과정이다.
여기서는 사이버보안을 위해 몇 가지 생성형 AI 솔루션을 테스트하고 평가한 경험을 바탕으로 사용자가 고려해야 할 3가지 핵심 요소를 정리했다. 생성형 AI 도입을 시작하고자 하는 사이버보안팀에 도움이 될 것이다.
1. 사용 신뢰도
사용 신뢰도(Usage Confidence)란 프롬프트 또는 프롬프트북에서 제공되는 출력 결과의 신뢰성을 말한다. 생성형 AI는 '환각(hallucination)' 위험이 있기 때문에 많은 솔루션 업체는 사용자가 출력물을 검증해야 한다는 문구를 포함하는 경우가 많다.
필자의 경험에 따르면, 일부 업체는 구체적인 프롬프트나 플레이북을 자신 있게 제시하지 못했다. 그럼에도 불구하고 이런 업체는 생성형 AI가 기업이 '기계 속도(machine speed)'로 문제를 해결하는 데 도움을 줄 수 있다고 주장한다. 따라서 사이버보안 분야에서 생성형 AI 솔루션을 평가할 때는 어떤 출력을 신뢰할 수 있는지, 어떤 출력이 추가 검증을 필요로 하는지 명확히 확인하는 것이 중요하다.
결국 침해 추정(Assumed Breach) 접근법을 취할 때, 인시던트 관리에서 가장 중요한 것은 신속하게 대응하는 능력이다. 출력 결과가 신뢰할 수 없으면, 오탐지와 미탐지가 발생해 진짜 문제를 해결하는 데 방해가 된다.
또한 보안팀은 생성된 요약 데이터의 정확성과 완전성에 의존한다. 따라서 업체가 제공하는 생성형 AI 솔루션이 얼마나 정확하고 신뢰할 수 있는지 명확히 파악하는 것이 필수적이다.
2. 사용 마찰
좋은 프롬프트를 작성하는 것은 이제 과학보다 예술에 가깝다. 원하는 출력을 얻기 위해서는 여러 번의 조정과 반복이 필요하다. 또한 일부 생성형 AI 솔루션은 애드혹(ad-hoc) 및 개방형 보안 쿼리에서 약점을 드러낸다. 이는 '기계 속도'로 문제를 해결하려는 기대와 상반되는 결과를 초래한다.
일부 생성형 AI 솔루션은 아직 충분한 로그 소스를 포괄적으로 통합하지 못한 경우도 있다. 그 결과 출력의 완전성과 정확성이 떨어져 사용자가 생성형 AI 솔루션 사용을 꺼리게 될 수 있다. 또한 사용 마찰은 생성형 AI 프롬프트가 유틸리티 요금 모델로 운영될 경우 더욱 심화된다. 프롬프트 사용 횟수에 대해 책임을 사용자가 져야 하는 상황에서는 프롬프트 사용을 주저하게 되기 때문이다.
따라서 생성형 AI 솔루션을 효과적으로 도입하려면 사용 마찰을 유발하는 요소를 인식하고 해결하는 것이 중요하다.
3. 사용 거버넌스
마지막으로, 일부 솔루션 업체는 생성형 AI 기능 활성화에 따라 사용료를 부과한다. 마치 수도꼭지를 켜놓고 끄지 않으면 계속해서 수도세가 부과되는 것처럼, 사용 여부와 상관없이 비용이 증가할 수 있다. 이 같은 불필요한 낭비를 방지하기 위해 거버넌스 구조가 필요하다. 이상적으로는 역할 기반 접근 제어(Role-Based Access Control)와 적절한 회계 시스템으로 최소한의 안전장치를 구현해야 한다.
그러나 거버넌스 구조가 어떻게 설계되든, 유틸리티 과금 모델을 채택하면 클라우드 컴퓨팅에서처럼 탄력성을 확보할 수 있다. 따라서 최종 사용자는 거버넌스 구조의 성숙도를 확인해 오남용과 낭비를 방지해야 한다.
요컨대, 기술 구매자는 생성형 AI 솔루션의 홍수 속에서 이 3가지 사항을 고려해야 한다. 클라우드 컴퓨팅과 마찬가지로 사이버보안에서 생성형 AI의 도입이 성숙해지면 환멸의 골짜기를 넘어 '재조명기(Slope of Enlightenment)'로 나아가고, 결국 '생산성 안정기(Plateau of Productivity)'에 도달하게 될 것이다.
editor@itworld.co.kr