Global Leading University
Analog & RF Circuit and System Research Center

센터뉴스

[칼럼&기고-3] [AIS 2025] 이희정 성균관대 교수 “AI 시대, 보안의 주체는 인간”

페이지 정보

작성자: 관리자   댓글: 0   조회수: 171 날짜: 2025-11-07

본문

AIS 2025 이희정 성균관대 교수
AIS 2025 이희정 성균관대 교수
데일리시큐 주최 국내 최대 인공지능 보안 컨퍼런스 ‘AIS 2025(Artificial Intelligence Security Conference 2025)’가 10월 28일 서울 역삼동 한국과학기술회관 국제회의실에서 성황리에 개최됐다. 이날 행사에는 공공·금융·기업의 정보보호 책임자와 실무자 600여 명이 참석해, 인공지능(AI)이 사이버보안의 핵심 기술이자 동시에 새로운 공격 도구로 부상한 현실 속에서 보안자동화 전략과 인간 중심의 보안 패러다임을 모색했다.

이날 성균관대학교 이희정 교수는 ‘인공지능 시대의 새로운 보안 패러다임: 위협, 대응, 그리고 인간의 역할’을 주제로 강연을 진행했다. 이 교수는 “AI는 인간을 대체하는 존재가 아니라, 보안을 함께 수행하는 협력자여야 한다”고 강조했다.

이 교수는 먼저 AI가 인간의 노동구조에 미치는 변화를 분석하며, 반복적이고 단순한 업무를 AI가 빠르게 흡수하면서 ‘창의성, 공감, 복잡한 의사결정’이 새로운 경쟁력이 되고 있다고 설명했다.

그는 “AI 발전의 핵심은 인간의 ‘주도성(human agency)’을 강화하는 방향으로 진화하고 있다”며 “창의적 사고와 공감 능력, 그리고 복잡한 조직 관리 능력은 AI가 모방하기 어려운 인간의 고유 자산”이라고 강조했다.

AI의 발전 속에서 직업은 △AI에 의해 대체 위험이 높은 ‘고위험지대(High-Risk Zone)’ △인간과 AI가 공존하는 ‘협력지대(Collaboration Zone)’ △AI가 대체하기 어려운 ‘안전지대(Safe Zone)’로 구분된다고 설명했다. 그는 특히 의료, 예술, 스포츠, 뷰티 분야를 안전지대의 대표적인 예로 제시하며, “이들 직업은 공감과 창의성, 즉흥적 판단이 필수적이기 때문에 AI가 완전히 대체할 수 없다”고 분석했다.

■ AI 기술의 이해와 보안 분야 적용 사례

이 교수는 AI, 머신러닝(ML), 딥러닝(DL)의 차이를 명확히 구분하며 보안 분야에서의 실제 활용 사례를 제시했다.

그는 “지도학습(Supervised Learning)은 ‘문제-정답’ 데이터를 통해 패턴을 학습하며, 스팸메일 분류나 악성코드 탐지에 활용된다”고 설명했다. 반면 “비지도학습(Unsupervised Learning)은 정답 없는 데이터를 통해 숨은 패턴을 발견해 신종 공격 탐지나 이상행동 감지에 효과적”이라며 “강화학습(Reinforcement Learning)은 공격 대응 전략을 자율적으로 학습하는 미래형 보안의 핵심”이라고 말했다.

그는 강화학습 기반 보안 체계가 “알파고처럼 시행착오를 통해 최적의 방어 전략을 스스로 학습하는 자율형 방어 모델”이라며 “실시간 대응에는 한계가 있지만, ‘최소 피해·최대 방어’를 목표로 한 진화형 보안 패러다임으로 발전하고 있다”고 덧붙였다.

■ 자율주행과 스마트 농업이 제시하는 AI 윤리와 보안 과제

이희정 성균관대 교수
이희정 성균관대 교수
이 교수는 자율주행 자동차와 스마트 농업을 AI 융합의 대표적 사례로 제시했다.

그는 “자율주행은 지도학습·비지도학습·강화학습이 모두 결합된 AI 기술의 총집합이지만, 여전히 안전사고, 윤리적 딜레마, 책임 분배, 신뢰 문제라는 보안 과제가 남아 있다”고 지적했다. 특히 ‘트롤리 딜레마(Trolley Dilemma)’처럼 인간 생명을 우선순위로 판단해야 하는 윤리적 결정을 AI가 내릴 수 없음을 강조했다.

이어 스마트 농업 분야에서는 “데이터 조작, 로봇 시스템 해킹, 정보 유출, 공급망 공격, AI 모델 교란 등 새로운 보안 위협이 나타나고 있다”며 “AI가 효율성을 높이는 동시에, 사이버 위협의 공격면을 확장시키고 있다”고 경고했다.

■ AI는 ‘공격의 무기이자 방어의 방패’

이 교수는 “AI는 양날의 검”이라며 “공격과 방어의 두 얼굴을 모두 가진다”고 말했다.

공격 측면에서는 대규모 언어모델(LLM)을 활용한 피싱 메일 자동 생성, 악성코드 제작, 딥페이크 기반 신원 도용 등 사회공학적 공격이 증가하고 있다고 경고했다.

Advertisement
반면 방어 측면에서는 “AI가 실시간 위협 탐지, 공격 예측, 자동 패치 수행 등 선제적 방어 체계 구축에 핵심 역할을 하고 있다”며 구글 딥마인드의 ‘코드멘더(CodeMender)’ 사례를 언급했다. “코드멘더는 소프트웨어 코드의 취약점을 자동으로 찾아내고 수정하는 AI 기반 보안 에이전트로, 인간 전문가의 역량을 보완하는 새로운 모델”이라고 설명했다.

■ “AI는 보조, 인간은 주체”…보안 전문가의 새로운 역할

이 교수는 “AI 시대에도 인간 보안 전문가의 역할은 사라지지 않을 것”이라고 전했다.

그는 “AI는 수백만 건의 로그를 분석하고 이상징후를 탐지하는 데 강점을 보이지만, 복잡한 의사결정과 윤리적 판단은 인간의 몫”이라며 “AI는 인간의 판단을 보완할 뿐, 최종 결정은 인간이 내려야 한다”고 말했다.

이 교수는 보안 전문가의 역할을 ‘협력지대(Collaboration Zone)’로 규정하며, 기술적 데이터와 비즈니스적 우선순위의 균형을 잡는 능력이 중요하다고 강조했다. “보안 조치가 기업 운영에 미치는 영향을 종합적으로 판단할 수 있는 것은 인간만이 가능하다”며 “AI의 효율성에 의존하기보다 인간의 윤리적 책임감과 통찰력이 더 절실한 시대”라고 했다.

■ AI 혁신 사례와 기술 발전의 현실적 한계

이희정 성균관대 교수 AIS 2025 강연현장
이희정 성균관대 교수 AIS 2025 강연현장
이 교수는 의료 분야의 알파폴드(AlphaFold)와 소프트웨어 개발의 AI 코드 어시스턴트를 대표적 혁신 사례로 소개했다.

“알파폴드는 단백질 구조 예측 시간을 수년에서 수초로 단축해 신약개발을 혁신했으며, AI 코드 어시스턴트는 개발 속도를 높이고 소규모 팀도 대기업 수준의 생산성을 발휘할 수 있게 했다”고 평가했다. 그러나 “기술의 속도에 비해 상용화에는 시간이 걸리며, 자율주행차 사례처럼 완전한 신뢰성 확보에는 예상보다 오랜 시간이 필요하다”고 현실적 한계를 짚었다.

또한 “AGI(범용 인공지능)가 2040년경, ASI(인공 초지능)가 그 이후 10년 내 도래할 것으로 예상되지만, 실제 생활에 영향을 미치기까지는 상당한 시간이 걸릴 것”이라고 진단했다. 이 교수는 “기술의 발전보다 중요한 것은 사회적 수용성과 디지털 격차를 해소하는 일”이라고 말했다.

■ “AI 시대, 인간은 보안의 중심에 서야 한다”

이희정 교수는 강연 말미에 “AI는 인간을 대체하기 위한 존재가 아니라 인간의 능력을 확장하는 도구”라고 강조했다. 그는 인공지능이 아무리 발전하더라도 창의성, 공감, 윤리적 판단처럼 인간만이 지닌 가치가 보안의 근간이 되어야 한다고 말했다. 또 AI와 인간이 협력하는 ‘공존의 보안 모델’을 구축하는 것이 앞으로의 핵심 과제라고 설명했다.

이 교수는 특히 보안 전문가들이 AI를 단순히 자동화 도구로만 바라보지 말고, 이를 이해하고 적극적으로 활용할 수 있는 역량을 길러야 한다고 조언했다. 그는 “AI를 통해 데이터를 분석하고 위협을 예측할 수 있지만, 최종적인 판단과 책임은 여전히 인간에게 있다”며 “AI 시대의 보안은 기술이 아닌 사람 중심의 가치에서 출발해야 한다”고 강조했다.

마지막으로 그는 “AI는 보조수단일 뿐, 보안의 중심은 인간이어야 한다”고 말하며, 인간의 전문성과 도덕적 판단이 기술 발전을 이끌어가는 방향키가 되어야 한다고 덧붙였다.

출처 : 데일리시큐(https://www.dailysecu.com) 

댓글목록

등록된 댓글이 없습니다.