Contents

UC 버클리 연구진이 직관적인 실행 취소 및 손상 제한 추상화 기능을 갖춘 LLM용 런타임인 GOEX를 출시하여 실무에서 LLM 에이전트를 보다 안전하게 배포할 수 있도록 지원합니다.

Contents

최근 대형 언어 모델(LLM)은 대화 시스템 내에서 기존의 기능을 뛰어넘어 실용적인 응용을 실현하는 데 적극적으로 나서고 있습니다. LLM 기반 플랫폼에 의해 디지털 서신이 촉진될 것이라는 전망은 이제 환상적인 개념에서 가시적인 현실로 바뀌고 있습니다. 현재로서는 복잡한 코드 이해와 관련된 복잡성을 고려할 때 LLM으로 생성된 결과물의 정확성을 보장하기 위해 사람의 감독이 필수적입니다. 이러한 사용자-에이전트 관계 간의 인터페이스는 획기적인 발전의 기회를 제공합니다. 예를 들어, 기밀 통신을 의도치 않게 전송할 수 있는 AI 기반 개인 비서를 상상해 보면 시스템 아키텍처에 안전 장치를 통합해야 할 필요성이 강조됩니다.

/images/researchers-at-uc-berkeley-introduce-goex-a-runtime-for-llms-with-an-intuitive-undo-and-damage-confinement-abstractions-enabling-the-safer-deployment-of-llm-agents-in-practice.png

대규모 언어 모델(LLM)의 배포는 기존 테스트 방법론의 범위를 넘어서는 다각적인 과제를 제시합니다. 여기에는 피드백 수신 지연, 종합적인 신호 분석의 필요성, LLM을 기존 테스트 프레임워크와 통합하는 데 따르는 어려움 등이 포함됩니다. 반복적인 개선과 오류 탐지를 방해할 수 있는 LLM 동작에 대한 정보 수신 지연을 극복하기 위해서는 비동기 피드백이 필요합니다. 개별 인스턴스가 아닌 종합적인 결과를 고려할 때 시스템 성능 평가는 점점 더 복잡해집니다. 또한 LLM을 단위 테스트와 통합 테스트에 통합하는 것은 실행 중에 동작이 동적으로 변경될 수 있기 때문에 고유한 장애물이 됩니다. 마지막으로, 텍스트 생성 시 가변적인 지연 시간은 실시간 시스템에 영향을 미칠 수 있으며, 특히 LLM의 경우

UC 버클리 연구진은 “사실 전 LLM 검증"의 대안으로 “사실 후 LLM 검증"이라는 개념을 도입했습니다. 이 접근 방식은 전체 프로세스나 중간 결과를 분석하는 대신 사람이 개입하여 LLM으로 생성된 작업을 실행하여 생성된 결과물을 평가하는 것입니다. 사후 검증에는 잠재적인 위험이 존재하지만, 이를 최소화하기 위해 ‘실행 취소’ 및 ‘손상 제한’과 같은 메커니즘이 포함되어 있습니다. 이러한 기능을 통해 LLM은 예상치 못한 결과를 되돌릴 수 있으며, 사용자는 손상 제한을 통해 허용 가능한 위험 수준을 설정할 수 있습니다. 구현을 용이하게 하기 위해 표준화된 도구를 사용하여 시스템 리소스를 측정하고 개발자가 이 방법론을 채택할 수 있도록 지원하는 Gorilla 실행 엔진 GoEx를 만들었습니다.

GoEx는 통제된 환경과 예측 불가능한 환경 모두에서 LLM으로 생성된 작업을 원활하게 실행할 수 있도록 특별히 설계된 고급 런타임 플랫폼을 제공합니다.이 시스템은 다양한 운영 환경에서 적응성을 보장하는 ‘실행 취소’ 기능과 ‘손상 억제’라는 두 가지 핵심 구성 요소로 이루어져 있습니다. 이 환경은 네트워크 쿼리, 파일 조작, 데이터베이스 상호 작용과 같은 광범위한 활동과 호환됩니다. 시스템의 기본 데이터베이스의 무결성을 보호하기 위해 GoEx는 민감한 세부 정보를 보호하면서 LLM 액세스를 승인하는 데 필요한 데이터와 구성을 안전하게 제공하는 특수 DBManager 모듈을 활용합니다. 보안 로그인 자격 증명이 로컬에 유지되어 연결 설정이 용이하고 지능형 에이전트가 지시한 작업을 수행할 수 있습니다.

/images/researchers-at-uc-berkeley-introduce-goex-a-runtime-for-llms-with-an-intuitive-undo-and-damage-confinement-abstractions-enabling-the-safer-deployment-of-llm-agents-in-practice-1.png

이 간행물의 주요 성과는 다음과 같이 요약할 수 있습니다:

연구자들은 대규모 언어 모델(LLM)을 단순히 정보를 처리하는 것이 아니라 의사 결정 주체로 간주하여 여러 애플리케이션에 통합할 것을 제안합니다. 하지만 예측 가능한 행동 패턴, 신뢰 문제, 즉각적인 오류 식별과 같은 몇 가지 장애물이 있음을 인정합니다. 이러한 시스템 내에서 안전을 보장하기 위해 운영보다는 결과 평가에 초점을 맞춘 ‘사후 LLM 검증’을 제안합니다. 또한 LLM 기반 시스템의 예기치 않은 결과에 대응하기 위해 설계된 ‘가역성’과 ‘제한적 봉쇄’라는 개념을 소개합니다. 또한 안전성과 기능성을 모두 강조하며 LLM 간의 원활한 협업을 가능하게 하는 적응형 플랫폼인 GoEx를 소개합니다.

요약하면, 이 연구는 실행 취소 및 손상 억제 기능을 갖춘 런타임 시스템인 GoEx와 함께 LLM에서 생성된 동작을 검증하고 되돌릴 수 있는 수단으로 ‘사실 후 LLM 검증’을 제시합니다. 궁극적인 목표는 LLM 에이전트 배포의 안전성을 강화하는 것입니다. 이 연구는 완전히 자율적인 LLM 기반 시스템의 시대를 구상하며 추가 연구가 필요한 몇 가지 미해결 연구 과제를 개괄적으로 설명합니다. 궁극적으로는 LLM 기반 시스템이 사람의 감독을 최소화하면서 독립적으로 작동하고 도구와 서비스 간의 상호 작용이 자급자족하는 미래로 나아갈 수 있을 것으로 예상합니다.

논문 Github 를 확인하세요. 이 연구에 대한 모든 크레딧은 이 프로젝트의 연구진에게 있습니다. 또한 트위터를 팔로우하는 것도 잊지 마세요. 텔레그램 채널, 디스코드 채널, 링크드인 그룹에 가입하세요.

저희의 노력에 감사하는 분들을 위해 저희 뉴스레터를 구독해 주시면 여러분의 기대를 뛰어넘을 것으로 확신하는 최신 노력과 개발 상황에 대한 정보를 얻을 수 있는 훌륭한 자료가 될 것입니다.

40,000명 이상의 회원을 보유한 Reddit의 광범위한 머신러닝 커뮤니티의 일원이 될 수 있는 기회를 놓치지 마세요.

인공 지능에 관심이 있는 150만 명 이상의 방대한 잠재 고객에게 다가가기 위해 저희 조직은 여러분과의 협업을 간절히 원합니다. 함께 협력하여 상호 성공을 위한 잠재적 기회를 모색해 봅시다.

Google, NVIDIA, Meta, 스탠포드 대학교, 매사추세츠 공과대학, Microsoft 등 인공지능 분야의 권위 있는 기관의 주요 연구자들이 열심히 읽고 있는 빠르게 확장 중인 뉴스레터를 구독하세요.