세계 석학들의 눈으로 본 AI의 미래…‘삼성 AI 포럼 2018’
페이지 정보
작성자 신건희 작성일18-09-20 17:59 조회9,152회 댓글0건관련링크
본문
인공지능(AI)과 딥러닝(Deep Learning) 분야 최고 권위자들이 한국을 찾았다. 9월 12~13일 이틀에 걸쳐 열린 ‘삼성 AI 포럼 2018’에 연사로 나서기 위해서다. 이들은 AI의 고도화된 학습기법인 ‘자기지도학습(Self-Supervised Learning)’을 비롯해 AI와 인간 뇌의 관계, 사람과 로봇의 공존 등을 주제로 연설과 함께 열띤 토론에 나섰다.
“예측은 지능의 본질, ‘자기지도학습’이 AI의 미래”
첫날 기조연설에 나선 미국 뉴욕대학교 얀 르쿤(Yann LeCun) 교수는 딥러닝 분야 최고 권위자로 꼽힌다. 그는 인공지능의 미래를 이끌 기술로 ’자기지도학습’을 꼽았다.
여러 기계학습(Machine Learning) 방법론 가운데 대표적인 지도학습(Supervised Learning)은 학습 데이터만 가지고 유의미한 정보를 얻는 기계학습 방법론이다. 데이터가 많아야 규칙이 만들어지기 때문에, 예측하지 못한 일이 튀어나오는 현실에선 문제가 생길 수 있다. 더 발전된 형태의 강화학습(Reinforcement Learning)은 학습 데이터 대신 보상(Reward) 함수를 활용해 지식을 키우는 방식인데, 실패해도 다시 시도하면 되는 게임 등 용도로 효과가 있지만 실제 사람이 사는 세계에 적용하기엔 너무 위험한 방식일 수 있다.
르쿤 교수가 강조한 자기지도학습은 주어진 데이터를 바탕으로 주변 상황과 조건까지 예측해 인지하도록 하는, 더욱 발전된 형태의 기계학습법이다. 그는 “강화학습으로 자율주행차를 훈련하려면 수천 회에 걸쳐 가로수와 충돌해야 하지만, 인간은 가로수에 부딪히면 큰 사고가 난다는 것을 ‘예측’해 사고를 내지 않고 자동차를 운전할 수 있다”고 설명했다.
이 학습법의 중심에는 컨볼루션 신경망(ConvNets, convolutional neural networks)이 있다. 르쿤 교수는 “컨볼루션 신경망 칩은 낮은 소비전력으로 효율성이 높을 뿐 아니라 음성∙영상 인식 기술에서도 괄목할 만한 성과를 내고 있다”며 “데이터 분석, 얼굴 인식, 보행자 인식 등 자율주행 분야는 물론 로봇·드론·지능형 센서와 웨어러블 디바이스 등 영역에서 혁신을 일으킬 것”이라고 내다봤다.
“10~20년 후엔 ‘사람과 로봇의 공존’ 현실이 될 것”
개인용 로봇에 대한 관심이 갈수록 커지고 있는 가운데, 로봇과 AI에 대한 석학들의 연설도 이어졌다. 미국 매사추세츠 공과대학(MIT) 미디어랩의 신시아 브리질 교수는 사용자 얼굴과 음성을 인식하고, 일상생활을 관리해 주는 등 인간과 대화하고 교감할 수 있는 소셜 로봇 ‘지보(JIBO)’를 개발한 인물.
브리질 교수가 강조한 소셜 로봇의 강점은 바로 사람과 ‘관계’다. AI와 인간 사이의 개인적인 교류가 형성돼야만 로봇이 인간을 있는 그대로 이해할 수 있다는 것. 이를 위해 로봇 개발에 있어 언어 소통을 넘어 마음 상태를 드러내는 언어 외의 데이터까지 반영해야 한다는 게 브리질 교수의 생각이다.
그는 “10년~20년 후엔 AI 로봇이 생활의 일부가 될 전망”이라며 “다른 전자제품과 달리 견고함이나 성능에 더해 인간과 감성적인 연결고리가 중요해질 것”이라고 강조했다. 가까운 예로 인공지능 스피커를 들었다. 브리질 교수는 “실제 미국에서 4,730만 명이 인공지능 스피커와 상호작용 하고 있으며, 그들은 매일매일 변화하고 있다. AI는 잠긴 문을 열 수 있는 열쇠”라며 소셜 로봇의 미래를 전망했다.
브리질 교수는 소셜 로봇을 차세대 인공지능 시대의 주인공으로 정의하기도 했다. 로봇과 함께 하는 일상이 먼 일이 아닌 지금, 로봇이 잠재적으로 하나의 가족 구성원이 될 수도 있다는 것. 이를 위해 차세대 소셜 로봇 연구는 아이들에 중심에 두어야 한다는 의견이다. 브리질 교수는 “아이들과 함께할 때 로봇이 어떻게 행동하고 관계를 맺는지, 아이들의 어떤 행동을 모방하고 영향을 주는지 지속적으로 관찰해야 다음 세대의 또래 같은 동반자가 될 것”이라고 말했다.
댓글목록
등록된 댓글이 없습니다.