AI에게 ‘맘마’ ‘멍멍이’부터 가르치면…

|

[ad_1]

한 명의 아이가 자라면서 얻는 시각 정보와 음성 정보만을 학습한 인공지능(AI) 모델이 나왔다. 인간이 어떻게 언어를 학습하는지 연구하는 도구로 활용될 수 있을 전망이다. 브랜던 레이크 미국 뉴욕대 심리학·데이터과학과 교수 연구팀은 한 아이가 보고 들은 내용을 토대로 한 AI 시스템을 개발하고 1일(현지 시간) 국제학술지 ‘사이언스’에 발표했다. 거대언어모델(LLM)인 챗GPT와 같은 AI 시스템은 아이들이 언어를 습득할 때와는 비교가 안 될 정도로 많은 양의 단어를 입력받아 학습한다. 아이들이 1년에 수백만 개의 단어를 접한다면 LLM에는 조 단위의 단어가 입력된다. 이 같은 차이 때문에 AI가 인간의 뇌를 모방한 시스템이어도 AI의 학습 과정을 통해 인간의 학습 경로를 파악하기는 어렵다. AI를 통해 인간의 언어 학습 과정을 이해하려면 한꺼번에 많은 양의 데이터가 입력되는 AI 시스템이 아니라 한 명의 아이로부터 입력받은 데이터만으로 학습 훈련을 한 AI 모델이 필요하다.

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *