자연의 새로운 돌파구: 대규모 언어 모델을 통한 인간 언어 네트워크 제어
자연어를 해독하는 과정은 전두엽과 측두엽 내의 뚜렷한 좌반구 영역의 활성화에 의존하며, 이를 통칭하여 “언어 네트워크"라고 합니다. 상당한 진전이 이루어졌지만, 이 네트워크 내에서 언어적 이해를 촉진하는 기본 구조와 계산 메커니즘에 관한 수많은 복잡성은 여전히 우리의 이해를 피하고 있습니다.
최근 계산 능력의 향상, 방대한 텍스트 데이터베이스의 확산, 기계 학습의 주목할 만한 성과로 인해 언어 기반 연산에 중점을 둔 인공 지능의 실질적인 발전을 위한 탄탄한 토대가 마련되었습니다. 이러한 발전으로 인해 연구자들은 인간의 언어적 인지를 그럴듯하게 표현하기 위해 대규모 언어 모델(LLM)을 사용할 수 있는 가능성을 탐구하게 되었습니다.
“대규모 언어 모델을 이용한 인간 언어 네트워크의 구동 및 억제"라는 제목의 혁신적인 연구에서 매사추세츠 공과대학교, MIT, 미네소타 대학교, 하버드 대학교의 연구원들이 협력하여 인간 언어 네트워크 내에서 어떤 문장이 특정 반응을 불러일으킬 가능성이 높은지 예측하기 위해 GPT 기반 인코딩 모델을 활용했습니다.
이 연구는 두 가지 주요 목적을 가지고 있습니다:
새로운 종류의 모델인 LLM을 언어 처리 모델로서 엄격하게 평가하는 것. 다양한 언어 입력 및 관련 뇌 반응에 걸쳐 언어 네트워크에서 반응을 유도하거나 억제하는 자극 속성을 특성화하여 언어 처리에 대한 직관적 수준의 이해를 얻습니다.
연구진은 대뇌 의사소통 시스템 내에서 제한되지 않은 언어적 표현에 대한 신경 반응을 예측하기 위해 고안된 인코딩 체계를 고안했습니다. 이 방법은 GPT2-XL에서 파생된 터미널 토큰 문장 표현을 활용했으며, 5개의 서로 다른 소스에서 추출한 1,000개의 다양한 샘플을 사용하여 학습했습니다. 특히 이 모델은 대조 데이터 세트에 포함된 테스트 문구에 적용했을 때 r=0.38의 상관 계수를 기록하는 등 인상적인 수준의 정확도를 보여주었습니다.
인코딩 모델 예측의 안정성을 보장하기 위해 저희 팀은 다른 대규모 언어 모델에서 파생된 문장을 포함하여 다양한 방법으로 문장 임베딩을 생성하여 보류된 문장 세트에 대한 성능을 평가했으며, 일관되게 강력한 결과를 통해 모델의 신뢰할 수 있는 특성을 확인했습니다.
인코딩 모델의 데모는 고차 인지 과정과 관련된 뇌의 특정 영역 내 결과를 예측하는 데 놀라운 정확도를 보였으며, 이러한 영역 내 신경 활동을 조절하는 비침입적 방법을 제공했습니다. 또한, 뇌에 매핑된 트랜스포머 모델, 특히 GPT2-XL은 익숙하지 않은 피험자의 언어 처리 네트워크 내에서 신경 활동을 효과적으로 유도하고 약화시켰습니다.
이 혁신적인 연구는 인간의 언어 이해력을 모방하기 위한 신뢰할 수 있는 모델로서 대규모 언어 모델(LLM)의 효능을 입증하는 동시에 비침입적 신경 기능 조절에 대한 혁신적인 접근 방식을 제시합니다. 고급 인지 과정과 관련된 영역 내에서 신경 반응을 조작하는 것은 신경학적 탐구와 실제 응용 분야 모두에 상당한 파급력을 발휘하며, 인공지능과 신경과학이 융합되는 중요한 시점을 의미합니다.
대규모 언어 모델을 사용한 인간 언어 네트워크의 구동 및 억제 Nature Human Behaviour 에 대한 논문 .