KAIST 김재철 AI 대학원, 16일 강남구 코엑스서 ‘AI 기술설명회’ 개최

개는뒷덜미피부를물어새끼를옮긴다.그부위를무는것이가장상처가적다는것을본능적으로이해하고있는것이다.이처럼자연계를살아가는동물은어떤객체를바라볼때자연스럽게부분(Part)별로나눠서인식하는능력을갖고있다.
하지만인공지능(AI)은이야기가다르다.‘자동차’를인식시키려면자동차이미지를반복적으로학습해데이터를쌓고,그안에서공통적요소를분석해이해하는방식을주로사용하는데,이방법으로는사물을부위별로인식하도록만들기가쉽지않았다.로봇이주방일을할때‘칼의손잡이’나‘냄비의바닥’등을구분해이해하지못하니사람처럼능수능란하게업무를배우고익히기어렵게된다.
한국과학기술원(KAIST)연구팀이이같은문제를해결하기위한기술을새롭게개발했다.이미지속객체의특정부분을글자설명만으로정확하게구분해내는‘개방어휘부위분할(OVPS,Open-VocabularyPartSegmentation)’기술이다.
KAIST심현정교수팀소속최지호연구원(박사과정)은16일서울강남구코엑스에서열린‘KAIST김재철AI대학원AI기술설명회’오후세션연사로나서‘개방어휘부분분할을위한다중세분성이해’라는제목으로고효율OVPS기술의연구과정에대해소개했다.
OVPS기술을이용하면이미지속,즉카메라로바라본영상속객체의특정부분을‘글자설명’만으로정확하게구분해내는AI기술이다.즉로봇에게‘국자의손잡이부분이어디냐’고묻거나,‘자동차의헤드라이트부분이어디냐’고물어보면AI는그부위를말만듣고정확하게찾아낸다.고정된라벨없이도자연어설명을통해이미지내다양한객체의세부부위를인식하고분할할수있어AI및로봇의현실사회작업성이크게높아질기술로이해된다.
기존OVPS기술들은몇가지한계점을안고있었다.객체전체를인식하는단계를넘어서특정부분을인식하는수준으로발전하려면학습이필요한데,정보부족으로인해오류가발생하는일이잦았다.여러부위가겹쳐있거나경계가모호한경우정확한분할에어려움을겪기도했다.또이미지내에서크기가작거나자주등장하지않는부위는누락되는문제도있었다.특히코,얼굴,머리등다양한부분으로다시나눠해석할수있는‘개방된세분성(OpenGranularity)’문제는기존기술로는해결하기어려운난제였다.
연구팀은‘파트클립세그(PartCLIPSeg)'라는기술을이용해이같은문제를해결했다.핵심아이디어는’객체수준의맥락정보(Object-levelContexts)‘를활용하는것이다.즉AI가사람처럼’일반화된부위(GeneralizedParts)‘를인식하도록만드는기술을뜻한다.이기술을적용하면한번일반화된개념을거의모든객체에동일하게적용할수있다.
예를들어고양이이미지를통해부분별구분방법을학습했더라도,강아지는물론다른동물의이미지에서도머리나귀,다리등의부위를성공적으로분할해낼수있도록만든것이다.연구팀은여기에’어텐션제어(AttentionControl)’라는메커니즘을추가로적용해부위간경계의모호성을줄이고,누락되기쉬운작은부위도효과적으로찾아내도록만들었다.이렇게만든AI기술을실험해본결과,기존모델들대비우수한성능을보였으며,특히이전에학습하지않은새로운객체역시우수한성공률로인식한다는사실을확인했다.
최지호연구원은이날발표에서“정의된고정된라벨없이도자연어설명을통해이미지내다양한객체의세부부위를인식하고분할할수있는것이특징”이라고소개했다.
해당기술은지난해신경정보처리시스템학회(NeurIPS)에서발표한바있다.올해부터는이기술을더욱발전시킨‘파트캣세그(PartCATSeg)’기술을올해열릴‘컴퓨터비전및패턴인식학회(CVPR)2025’에서공개할계획이다.
이날행사는KAIST가연구중인핵심원천인공지능(AI)기술을산업계와대중에소개해AI기술의확산과산학협력활성화를돕기위해개최됐다.KAIST와공동으로성남산업진흥원,서울시가공동주최를맡았다.멀티모달AI,로보틱스,대형언어모델(LLM),생성AI(이미지및비디오)등다양한분야에걸친최신연구성과가발표됐다.오전세션에서는김재철AI대학원소속최윤재교수팀,서민준교수팀소속관계자들이강연을이어갔으며,양수열크라우드웍스CTO가참석해의료AI에대해소개했다.오후세션에서는김승룡교수팀,예종철교수팀,최재식교수팀,주재걸교수팀,신진우교수팀등다양한KAIST연구팀관계자들이현재진행중인최신AI연구기술에대해소개했다.KAIST김재철AI대학원은이행사를매년정기적으로개최할계획이다.
