성균관대학교 문태섭 교수 연구팀, 적응형 평생학습 알고리즘 개발 및 설명가능 인공지능 방법의 취약성 규명
성균관대학교 문태섭 교수 연구팀, 적응형 평생학습 알고리즘 개발 및 설명가능 인공지능 방법의 취약성 규명
이 기사를 공유합니다
▲ 문태섭 교수

성균관대학교(총장 신동렬)는 전자전기공학부 문태섭 교수 연구팀이 인공지능 분야의 두 가지 핵심기술 ‘적응형 평생학습 알고리즘 개발(공동 제1저자 안홍준 석사과정ㆍ차성민 박사과정) 및 설명가능 인공지능 방법의 취약성 규명(공동 제1저자 허주연 석사과정ㆍ주성환 석박통합과정)’ 개발에 성공했다고 9일 밝혔다.

본 연구는 과학기술정보통신부(MSIT)의 재원으로 정보통신기획평가원(IITP)과 한국과학기술연구원(KIST)의 지원을 받아 수행됐으며, 9일 AI/기계학습 분야의 세계 최고 권위의 학술대회인 신경정보처리학회(Neural Information Processing Systems, NeurIPS)에서 논문 2편을 발표했다.

NeurIPS 학술대회는 매년 매우 치열한 경쟁과 엄격한 리뷰 과정을 통해 논문들을 채택하는데(채택률 21.1%) 올해 국내에서 2편 이상 논문이 채택된 단일 연구실은 문태섭 교수 연구실이 유일했다.

연구팀이 첫 번째로 개발한 적응형 평생학습 알고리즘은 기계학습 분야의 오랜 난제 중 하나인, 순차적인 과제들을 계속해서 효율적으로 학습할 수 있는 연속 학습(Continual learning) 문제를 다루고 있다. 본 연구에서는 베이지안 온라인 학습(Bayesian online learning)에 기반해 뉴럴 네트워크 모델 파라미터의 불확실성에 대한 정의를 새롭게 제시함으로써 기존의 방법에 비해 약 30% 이상 적은 메모리를 사용하면서도, 적응적으로 새로운 개념을 익히고 과거의 지식을 점진적으로 망각해 갈 수 있는 알고리즘을 고안하였다. 그 결과, 다양한 지도학습과 강화학습 상황에서 기존 알고리즘들을 압도하는 성능을 선보였다.

두 번째 연구인 설명가능 인공지능 방법의 취약성 규명은 최근 딥러닝 알고리즘의 예측 결과를 설명하는 데 많이 사용되는 특징 지도(saliency-map) 기반의 딥러닝 해석 방법(interpretation method)이 적대적인 모델 조작(adversarial model manipulation)에 매우 취약할 수 있다는 것을 제시했다. 특징 지도 기반의 딥러닝 해석 방법들은 특히 딥러닝 모델의 편향성 등을 탐지하는 데 중요하게 쓰일 수 있다고 알려졌는데, 본 연구에서 제안한 적대적 모델 조작을 가하게 되면 예측 정확도는 거의 변하지 않는 상태에서 전혀 판이한 해석 결과가 나올 수 있음을 제시했다.

문태섭 교수는 “적응형 평생학습 알고리즘은 실제 AI 기술을 사용하는 응용 분야에서 매우 요구하는 실용적인 기술이고, 향후 이 기술을 더 발전시킨다면 데이터가 순차적으로 확보될 수밖에 없는 응용 분야에 널리 쓰일 수 있는 높은 파급력을 가졌다”고 말했다. 또한, “설명가능 인공지능 기술의 취약성을 보인 연구는 향후 더욱 모델과 데이터에 가해지는 적대적인 공격에 더욱 강건한 설명가능 인공지능 기술을 개발하는 데 필수적으로 고려해야 하는 기준을 제시했다”고 설명했다.

채태병기자


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 1
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
윤진한 2019-12-10 15:26:52
한국사 교과서가 한국 표준이고, 세계사 교과서가 세계표준임. 그리고 여러 학습 참고서, 백과사전, 주요 학술서적으로 판단해야 정설(定說)에 가까움. 해방후 유교국 조선.대한제국 최고대학 지위는 성균관대로 계승. 세계사로 보면 중국 태학.국자감(경사대학당과 베이징대로 승계), 서유럽의 볼로냐.파리대학의 역사와 전통은 지금도 여전히 교육중.

한국의 Royal대는 성균관대. 세계사 반영시 교황 윤허 서강대도 성대 다음 국제관습법상 학벌이 높고 좋은 예우 Royal대학.경성제대 후신 서울대는 한국에 주권.학벌이 없음.
http://blog.daum.net/macmaca/2812

연예 24시