AI 분야의 여성: 아스펜 연구소의 크리스틴 글로리아는 여성에게 이 분야에 뛰어들고 '호기심을 따라가라'고 말합니다.
인공지능 분야에서 여성의 과소 대표성을 바로잡고 그들의 중요한 공헌을 알리기 위해, 저희는 인공지능 산업 발전에 뛰어난 업적을 남긴 뛰어난 여성 학자 및 전문가 인터뷰 시리즈를 시작하게 되었습니다. 이 프로젝트는 잘 알려지지 않은 영웅들을 널리 알리기 위한 것으로, AI 분야의 성장에 따라 주기적으로 업데이트될 예정입니다. 여기에서 추가 프로필을 확인할 수 있습니다.
크리스틴 글로리아는 현재 가치 중심의 리더십과 정책적 통찰력을 증진하는 데 특화된 워싱턴 D.C.의 저명한 싱크탱크인 아스펜 연구소의 이머전트 및 인텔리전트 기술 이니셔티브를 주도적으로 이끌고 있습니다. 글로리아 박사는 인지과학 박사 학위와 미디어 연구 석사 학위를 취득했습니다. 이전에는 매사추세츠 공과대학의 인터넷 정책 연구 이니셔티브, 샌프란시스코에 위치한 스타트업 정책 연구소, 버클리 캘리포니아 대학교의 사회, 기술 및 정책 센터에서 연구를 수행한 경력이 있습니다.
Q&A
이 질문에 대해 어떤 종류의 답변이 예상되는지에 대한 자세한 맥락을 알 수 있나요? 원본 텍스트는 이미 간결하고 간단합니다.
놀랍게도 저의 초기 관심사는 인공지능이 아니라 기술과 공공 정책의 상호 작용 영역에 있었습니다. 뉴 아메리카 재단의 아처 펠로우로 재직하는 동안 저는 정책 입안자와 정치인들이 기술 전문 용어를 오용하는 것을 직접 목격했습니다. 이 경험을 계기로 저는 더 많은 교육을 받고 시맨틱 기술과 온라인 소비자 개인정보 보호에 중점을 둔 인지과학 박사 학위를 취득했습니다. 지원적인 멘토와 조언자의 지도 아래 저는 기술적 능력과 기술과 사회의 복잡한 관계에 대한 비판적 관점을 모두 연마했습니다. 아스펜 연구소의 AI 디렉터로서 저는 이 분야의 저명한 리더들, 특히
제 경력을 통해 저는 여러 가지 AI 노력을 주도해왔으며, 각 프로젝트는 저에게 큰 의미를 지니고 있습니다. 현재 저는 새로 설립된 비영리 단체인 Young Futures의 핵심 멤버이자 전략적 파트너십 및 혁신 담당 이사로서, 젊은이들에게 보다 사용자 친화적인 디지털 환경을 조성한다는 목표를 달성하기 위해 이러한 원칙을 업무에 접목하게 되어 매우 기쁘게 생각합니다.생성형 인공지능의 중요성이 커지고 첨단 기술이 등장함에 따라 어린이, 청소년, 그리고 이들을 지원하는 사람들이 디지털 환경의 복잡성을 헤쳐 나갈 수 있도록 협력하는 것이 필수적이고 필수적인 일이 되었습니다.
인공 지능 분야에서 [특정 분야/프로젝트]에 기여한 것에 자부심을 느낍니다.
“소외된 커뮤니티의 요구가 우선시되는 대안적인 미래를 구상하기 위해 알고리즘을 어떻게 재조정할 수 있을까요?” 이 아이디어는 데이터 과학에 대한 저의 접근 방식을 형성하는 데 중요한 역할을 했습니다. 최근 청소년 진흥에 힘쓰는 기업 블루피버(Blue Fever)에서 데이터 책임자로 일하면서
기술 분야와 그 하위 분야인 인공지능(AI)처럼 남성이 주로 지배하는 분야에서 흔히 나타나는 다양한 장애물을 어떻게 효과적으로 협상할 수 있을까요?
오늘날에도 여전히 유효한 진정한 장애물에 직면했음에도 불구하고, 저는 이 분야의 다양한 동료들로부터 제 능력과 전문성에 대한 회의적인 시선을 받기도 했습니다. 하지만 몇몇 남성 동료들이 저를 열렬히 지지해 준 것에 대해 감사하게 생각합니다. 이러한 사례는 어려운 시기에 저에게 큰 힘이 되었습니다. 또한 최근 몇 년 동안 상당한 진전이 있었다는 점을 인정할 필요가 있습니다. ‘인공지능’을 구성하는 변수는 더 이상 컴퓨터 과학 배경에만 의존하지 않고, 다른 필수 역량과 업무 경험이 중요하게 부각되고 있습니다.
인공지능 분야에서 경력을 쌓고자 하는 여성을 어떻게 격려하고 지원할 수 있을까요?
환영하며 호기심에 이끌려 들어온 것을 허용하세요. 이 분야의 환경은 끊임없이 진화하고 있으며, 이 분야에 대한 낙관적이고 비판적인 시각을 통해 자기 계발을 추구하는 것은 자극이 될 뿐만 아니라 매우 유익한 일입니다.
인공 지능이 계속 발전함에 따라 관심과 배려가 필요한 몇 가지 중요한 문제가 대두되고 있습니다. 여기에는 알고리즘의 편향성, 투명성, 책임성, 오용 가능성 등의 윤리적 고려 사항, 확장성, 설명 가능성, 해석 가능성, 견고성과 관련된 기술적 과제, 일자리 대체, 개인정보 보호, 보안, 책임 있는 개발 및 배포의 필요성과 같은 사회적 영향이 포함됩니다.
인공지능(AI)이 직면한 가장 중요한 과제 중 일부는 인터넷의 출현 이후 아직 완전히 해결되지 않은 바로 그 문제라고 주장할 수 있습니다.이러한 우려 중에는 대리인, 자율성, 프라이버시, 공정성, 형평성 등 기술과 인간의 관계에 근본이 되는 문제도 포함됩니다. 실제로 AI의 발전은 사회적, 정치적 변화와 마찬가지로 이러한 어려움을 더욱 악화시킬 수 있습니다.
데이터 프라이버시 및 알고리즘 편향성을 둘러싼 윤리적 고려 사항과 이러한 기술의 작동 방식에 대한 투명성의 필요성 등 인공지능(AI) 시스템을 사용하는 개인이 고려해야 할 몇 가지 잠재적 우려가 있습니다. 또한 AI 시스템이 내린 결정, 특히 그 결정이 중대한 결과를 초래하는 상황에서는 책임과 의무에 관한 의문이 제기될 수 있습니다. AI 사용자는 이러한 문제에 대한 정보를 지속적으로 파악하고 이러한 기술의 책임감 있는 개발과 배포를 지지하는 것이 중요합니다.
인공지능(AI)을 활용하는 개인은 그러한 기술이 자신의 자기 결정권과 독립성을 어느 정도 강화하거나 제약하는지를 고려해야 합니다. 또한 기술, 특히 인공지능이 인간 복지에 미칠 수 있는 잠재적 영향에 대한 논의가 계속되고 있는 상황에서 인공지능 사용과 관련된 부정적인 결과를 완화할 수 있는 검증된 전략이 존재한다는 점을 염두에 두어야 합니다.
인공 지능은 어떻게 책임감 있게 개발될 수 있을까요?
책임감 있는 인공지능 시스템을 개발하려면 프로그래밍뿐만 아니라 아키텍처, 규제 프레임워크, 가이드라인, 재무 모델 등을 포괄하는 다각적인 접근 방식이 필요합니다. 이러한 구성 요소는 상호 의존적이며 분리하여 고려할 수 없으므로 한 측면만 해결하려고 시도하면 최적의 결과를 얻을 수 없습니다.
투자자가 윤리적이고 책임감 있는 인공 지능 관행을 효과적으로 옹호하려면 어떻게 해야 할까요?
팀닛 게브루와 그녀의 팀이 개발한 AI 모델 카드를 요구하는 등 실사에 대한 모질라 벤처스의 훌륭한 접근 방식은 감탄할 만합니다. 이러한 관행을 통해 투자자와 같은 팀은 시스템 내에서 활용되는 AI 모델과 관련된 잠재적 위험과 안전 문제를 평가할 수 있습니다. 또한 잠재적 투자를 평가할 때는 시스템의 전반적인 용량과 책임감 있게 배포할 수 있는 역량을 고려하는 것이 중요합니다. 예를 들어, 보안 대책을 마련하거나 모델 카드를 게시하는 것은 좋은 의도로 보일 수 있지만, 취약 계층을 악용하는 수익 모델을 사용하면 이러한 노력이 약화될 수 있습니다. 수익성을 유지하면서 책임감 있는 관행을 우선시할 수 있습니다.정신 건강 및 웰빙 문제 해결을 위한 투자자 간의 협력은 혁신적이고 다양한 솔루션으로 이어질 수 있습니다