AI 학습시간 2배이상 단축 공유기억장치 나왔다

이준기기자 ┗ 韓·日, 원전 오염수 방류 `IAEA 설전`

메뉴열기 검색열기

AI 학습시간 2배이상 단축 공유기억장치 나왔다

이준기 기자   bongchu@
입력 2019-09-10 13:55

ETRI '메모리 박스' 선보여
'딥러닝' 분산 학습시간 단축
의료영상·이미지 분석 등 활용


ETRI 연구자들이 AI의 분산 학습시간을 단축시키기 위해 개발한 '메모리 박스'에 대한 성능 테스트를 하고 있다.

ETRI 제공



AI(인공지능) 학습 시간을 2배 이상 빠르게 단축시키는 기술이 개발됐다. 이 기술을 활용하면 1주일 가량 걸리던 AI 모델 학습 시간을 1∼2일 만에 끝낼 수 있어 해상도가 높은 의료영상 분석이나 방대한 이미지 분석 등을 필요로 하는 다양한 분야에 활용할 수 있다.
한국전자통신연구원(ETRI)은 AI의 핵심기술인 '딥러닝' 분산 학습시간을 획기적으로 줄여주는 공유기억장치인 '메모리 박스'를 개발했다고 10일 밝혔다.

딥러닝을 구현하려면 대규모 영상과 이미지, 음성 등의 데이터나 모델을 학습시켜야 하는 데, 그 양이 많을수록 학습에 많은 시간이 소요된다. 이 때문에 대규모 데이터를 처리하기 위해 여러 대의 컴퓨터를 동시에 활용하는 '분산 학습' 기술이 쓰인다. 컴퓨터 하나로만 인공지능을 학습시키지 않고, 여러 대의 컴퓨터를 활용해 학습 분량을 분담시켜 시간을 단축시키는 것이다.

하지만, 분산 학습기술을 실행하는 과정에서 컴퓨터 간 통신량이 많아져 특정 지점에서 성능이나 용량이 저하되는 통신 병목현상이 생긴다. 이를 위해 중앙처리장치(CPU)나 그래픽처리장치(GPU)의 성능을 높이고 있으나, 추가적인 업그레이드가 필요해 비용 부담이 크다.

연구팀은 인공지능의 분산 학습 시 발생하는 통신 병목현상을 해소하기 위해 '공유기억장치'를 개발했다. 컴퓨터 중간에 공유기억장치를 설치해 각 컴퓨터들이 학습한 내용을 서로 공유해 통신량을 줄여 주는 일종의 '가상 공유 메모리'인 셈이다.



연구팀은 100가지 종류의 이미지 128만장을 분류하는 AI 모델을 1만 번 반복 학습한 결과, 기존 서버 방식으로 16분 23초 걸리던 학습 시간이 공유기억장치를 활용하면 7분 31초로 두 배 가량 단축됐다. GPU 등 하드웨어 장비 교체 없이 최소의 투자로 동일한 환경에서 딥러닝 학습시간을 큰 폭으로 줄일 수 있게 된 것이다.
ETRI는 이와 함께 국내 AI 개발자들이 손쉽게 딥러닝 연구를 진행하도록 '딥러닝 대시보드'를 개발했다. 이 대시보드는 그래픽 기반의 개발 환경을 제공해 개발자들이 코드를 하나하나 입력할 필요가 없어 학습시간과 모델 개발시간을 단축시킨다.

AI 개발에 주로 쓰이는 텐셔플로우 등 도구들도 대시보드에서 지원해 그래픽 모델을 학습시킬 수 있다고 연구팀은 설명했다.

관련 기술은 11일 폐막하는 세계 최대 가전 전시회인 '독일 IFA 2019'에 출품해 관심을 모았다.

최완 ETRI 인공지능연구소 책임연구원은 "글로벌 기업이 독식하고 있는 AI 컴퓨팅 인프라 시장을 우리 기술로 대체하고, 고난이도 딥러닝 기술과 독자적인 AI 슈퍼컴퓨팅 시스템을 개발하는 데 널리 활용될 것"이라고 말했다.

이준기기자 bongchu@dt.co.kr

[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]