2024.04.25 (목)

  • 맑음속초26.2℃
  • 맑음21.2℃
  • 맑음철원19.6℃
  • 맑음동두천19.5℃
  • 맑음파주17.7℃
  • 맑음대관령20.6℃
  • 맑음춘천21.8℃
  • 흐림백령도12.6℃
  • 맑음북강릉25.3℃
  • 맑음강릉27.2℃
  • 맑음동해24.0℃
  • 연무서울19.9℃
  • 맑음인천16.6℃
  • 맑음원주20.6℃
  • 맑음울릉도19.1℃
  • 맑음수원19.4℃
  • 맑음영월21.5℃
  • 맑음충주20.5℃
  • 맑음서산20.9℃
  • 맑음울진18.5℃
  • 맑음청주20.9℃
  • 맑음대전22.3℃
  • 맑음추풍령22.6℃
  • 맑음안동22.9℃
  • 맑음상주23.7℃
  • 맑음포항25.1℃
  • 맑음군산18.9℃
  • 맑음대구25.6℃
  • 맑음전주23.0℃
  • 맑음울산21.7℃
  • 맑음창원25.3℃
  • 맑음광주24.8℃
  • 맑음부산19.6℃
  • 맑음통영20.9℃
  • 맑음목포19.8℃
  • 맑음여수20.4℃
  • 맑음흑산도16.2℃
  • 맑음완도24.4℃
  • 맑음고창22.1℃
  • 맑음순천25.2℃
  • 맑음홍성(예)19.4℃
  • 맑음20.0℃
  • 맑음제주20.4℃
  • 맑음고산17.6℃
  • 맑음성산19.7℃
  • 맑음서귀포20.2℃
  • 맑음진주25.5℃
  • 맑음강화15.7℃
  • 맑음양평18.9℃
  • 맑음이천20.0℃
  • 맑음인제21.6℃
  • 맑음홍천21.5℃
  • 맑음태백24.0℃
  • 맑음정선군24.6℃
  • 맑음제천20.3℃
  • 맑음보은22.1℃
  • 맑음천안21.2℃
  • 맑음보령19.3℃
  • 맑음부여22.4℃
  • 맑음금산23.0℃
  • 맑음20.9℃
  • 맑음부안21.4℃
  • 맑음임실24.6℃
  • 맑음정읍23.4℃
  • 맑음남원25.3℃
  • 맑음장수24.3℃
  • 맑음고창군23.3℃
  • 맑음영광군19.5℃
  • 맑음김해시23.7℃
  • 맑음순창군24.6℃
  • 맑음북창원26.7℃
  • 맑음양산시25.0℃
  • 맑음보성군23.9℃
  • 맑음강진군26.0℃
  • 맑음장흥23.9℃
  • 맑음해남22.2℃
  • 맑음고흥24.6℃
  • 맑음의령군26.6℃
  • 맑음함양군27.7℃
  • 맑음광양시24.4℃
  • 맑음진도군19.6℃
  • 맑음봉화22.6℃
  • 맑음영주23.4℃
  • 맑음문경23.0℃
  • 맑음청송군23.8℃
  • 맑음영덕23.7℃
  • 맑음의성23.8℃
  • 맑음구미24.9℃
  • 맑음영천25.1℃
  • 맑음경주시26.5℃
  • 맑음거창26.8℃
  • 맑음합천26.4℃
  • 맑음밀양26.7℃
  • 맑음산청26.2℃
  • 맑음거제22.6℃
  • 맑음남해23.7℃
  • 맑음23.5℃
공주대 최대선 교수, AI 속이는 공격자 AI 개발 '화제'
  • 해당된 기사를 공유합니다

공주대 최대선 교수, AI 속이는 공격자 AI 개발 '화제'

최대선 교수.jpg

[예산일보] 공주대학교(총장 원성수)는 최대선 교수가 얼굴에 몇 개의 점을 붙여 얼굴인식 AI가 다른 사람으로 인식하게 만드는데 성공했다고 밝혔다. 

 

연구팀이 개발한 공격자 AI에 얼굴 사진을 입력하면 얼굴에 붙일 점 스티커를 만들어주고, 점을 붙일 위치를 알려준다. 공격자 AI가 알려준 대로 얼굴에 점 스티커를 붙이면, 얼굴인식 AI는 전혀 다른 사람으로 인식하게 된다.

보안 분야에서는 이미지나 보이스에 약간의 변형을 가해 딥러닝 AI를 속일 수 있는 기만 공격이 가능하다고 알려져 왔으며, 기만 공격을 통해 자율 주행 자동차가 좌회전 표지판을 우회전으로 인식하게 되는 등 심각한 문제를 야기할 수 있어 AI의 보안 취약점으로 지적되고 있다.
 
이러한 변형 데이터를 적대적 예제 (adversarial example)이라고 부르며, AI를 기만하는데 사용한다. 공격자 AI가 어떻게 변형해야 하는지를 자동으로 찾아주므로 이러한 적대적 예제를 쉽게 생성할 수 있으며, 이를 방어하는 것도 어렵다고 알려져 있다.
 
사람 목소리에 약간의 잡음을 추가하여 음성인식 AI를 속이는 기만 공격 사례도 알려져 있다. 방송에서 앵커가 말한 “A상품을 주문해라”는 음성을 명령으로 인식해 실제 상품을 주문한 아마존 AI 스피커의 사례가 있는데, 적대적 예제를 적용할 경우 “안녕하십니까”라는 말을 듣고도 상품을 주문할 수 있다.  
 
이번 공주대 연구는 이미지 상태가 아닌 실제 얼굴에 약간의 분장을 통해 얼굴인식 AI를 기만할 수 있다는 것을 보여준 세계 최초 연구로, AI 적용 분야가 확대되어 가는 가운데 AI 보안 취약점이 큰 문제를 야기할 수 있는 사례이다.
 
해외에서는 표지판에 스티커를 붙여 오인식하게 만드는 연구가 소개된 바 있으나, 얼굴 분장을 통한 얼굴인식 AI를 기만하는 사례는 이번 공주대 연구가 최초이다.
 
연구팀을 이끈 최대선 교수는 “이러한 기만 공격 이외에도 AI의 오동작을 유발하거나, 학습에 사용된 데이터를 추출하여 프라이버시를 침해하는 등 여러 가지 AI 보안 취약점이 알려져 있다”며 “최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식하고 대비해야 한다”고 말했다.
 

얼굴인식AI.jpg

 



3554740856_d0hDOpT4_0807.gif






모바일 버전으로 보기