Contents

AI의 여성: 인도에서 AI의 사회적 영향을 연구하는 Urvashi Aneja

Contents

/images/women-in-ai-urvashi-aneja-is-researching-the-social-impact-of-ai-in-india.jpg

인공지능 분야의 여성 학자 및 전문가들의 탁월한 공헌에 경의를 표하기 위해 AI 혁명을 이끈 주목할 만한 여성들을 조명하는 인터뷰 시리즈를 시작합니다. 업계가 기하급수적인 성장을 거듭하고 있는 만큼 연중 주기적으로 추가 특집을 공개하여 주목받지 못했던 획기적인 업적을 소개할 예정입니다. 여기에서 영감을 주는 프로필 컬렉션을 살펴보세요.

우르바시 아네자는 글로벌 남부에서 기술과 사회의 관계를 연구하는 다학제적 연구 이니셔티브인 디지털 퓨처스 랩의 창립자입니다. 또한 런던에 본사를 둔 독립 싱크탱크인 채텀 하우스에서 아시아 태평양 프로그램 부연구원으로 재직하고 있습니다.

현재 아네자는 자신의 지리적 위치인 인도 내에서 알고리즘에 기반한 의사결정 프로세스의 사회적 영향과 플랫폼 거버넌스와 관련된 문제를 조사하는 데 집중하고 있습니다. 최근에는 법 집행과 농업 등 인도의 다양한 산업 분야에서 인공지능이 현재 어떻게 적용되고 있는지를 평가하는 분석 보고서를 작성했습니다.

질문과 답변

이 질문에 대해 어떤 종류의 답변이 예상되는지에 대한 자세한 맥락을 알 수 있을까요? 원래 질문은 단순해 보이며 깊이나 정교함이 부족합니다.

저는 인도주의 분야에서 연구 및 정책 참여로 경력을 시작했습니다. 몇 년 동안 저는 자원이 부족한 상황에서 장기적인 위기 상황에서 디지털 기술의 활용에 대해 연구했습니다. 특히 취약한 인구를 다룰 때 혁신과 실험 사이에는 미세한 경계가 있다는 것을 금방 깨달았습니다. 이 경험을 통해 얻은 교훈은 디지털 기술, 특히 AI의 잠재력에 대한 테크노 솔루션주의적 이야기에 대해 깊은 우려를 갖게 했습니다. 같은 시기에 인도는 디지털 인디아 미션과 인공지능에 대한 국가 전략을 발표했습니다. 저는 AI를 인도의 복잡한 사회경제적 문제에 대한 해결책으로 보는 지배적인 이야기와 이 문제에 대한 비판적 담론이 전혀 없는 것에 대해 고민했습니다.

인공 지능 영역에서 저는 [특정 분야 또는 프로젝트]에 기여한 것에 큰 자부심을 가지고 있습니다. 이 작업을 통해 이 영역에 대한 이해와 역량을 발전시키는 데 상당한 진전을 이룰 수 있었고, 그 결과 실용적, 이론적 수준 모두에서 주목할 만한 영향을 미쳤습니다.

우리는 사회 정의, 노사 관계, 환경 지속 가능성 문제에 대한 광범위한 결과와 함께 AI 생산의 정치 경제적 측면에 주목하게 되어 기쁘게 생각합니다. 종종 AI를 둘러싼 논의는 개별 애플리케이션의 장점에만 집중하고, 기껏해야 각 사례와 관련된 잠재적 이익과 위험만을 고려하는 경우가 많습니다. 그러나 이러한 좁은 관점은 인식의 불공정을 조장하고, 노동자들의 기술 수준을 떨어뜨리며, 개발도상국에 만연한 견제받지 않는 권력 구조를 악화시키는 AI의 역할과 같은 더 큰 시스템적 영향을 간과합니다. 또한 공공 부문에서 AI 사용에 대한 윤리적 기준을 고안하는 것부터 보상

주로 남성적인 기술 및 인공지능 분야에 존재하는 장애물을 극복하는 데 있어 어떤 방식으로 성공을 거둔 적이 있나요?

나의 성취가 내 능력의 증거가 될 수 있도록 하고, 주어진 과제나 결정의 근거에 대해 지속적으로 질문함으로써.

인공지능 분야에서 커리어를 쌓고자 하는 여성에게 어떤 조언이나 추천을 해줄 수 있나요?

인공지능 분야에서 자신의 능력과 권위를 확장하기 위해서는 기술적 이해도를 탄탄하게 유지하는 것이 중요합니다. 그러나 인공지능에만 국한하지 말고 다른 학문 분야를 탐구하여 학제 간 연결고리를 만드는 것이 좋습니다. 안타깝게도 많은 사람들이 AI를 역사적, 문화적 요인에 의해 형성된 복잡한 사회적, 기술적 구조로 인식하지 못하고 있습니다.

인공 지능이 계속 발전하고 발전함에 따라 신중한 고려가 필요한 몇 가지 중요한 문제가 제기되고 있습니다. 여기에는 의사결정 과정에서의 편향성, 인공지능 시스템이 취한 행동에 대한 책임, 자동화로 인한 고용 기회에 대한 잠재적 영향과 같은 윤리적 고려사항이 포함됩니다. 또한 데이터 프라이버시 및 보안과 관련된 문제를 해결하고, 의도하지 않은 피해나 오용과 같은 부정적인 결과를 피하면서 AI가 인간의 가치에 부합하는 유익한 기능을 유지하도록 보장해야 할 필요성이 있습니다.

가장 중요한 우려는 대규모 언어 모델과 생성 인공 지능의 발전으로 인해 증폭된 제한된 수의 기술 기업 내 권력 집중과 관련된 것입니다.이러한 기업들은 현재 AI로 인한 실존적 위협에 대한 불안감을 부추겨 기존의 피해로부터 주의를 돌리고 그러한 위험을 완화하는 데 없어서는 안 될 존재인 것처럼 묘사하고 있습니다. 그 결과, 케임브리지 애널리티카 스캔들 이후 거대 기술 기업에 대한 대중의 비판에 대한 동력이 약해진 것으로 보입니다. 또한, 인도와 같이 오랜 어려움을 극복하기 위해 AI가 경제 발전의 필수 전제 조건으로 선전되고 있는 지역에서는 AI가 오랜 어려움을 극복하는 데 사용될 수 있다는 우려도 있습니다. 그러나 이러한 개념은

인공 지능을 활용하는 개인이 주의해야 할 우려 사항이나 고려 사항이 있나요?

인공지능은 마법의 능력을 가지고 있지 않으며, 인간의 복잡한 인지를 복제할 수 없다는 점을 사용자가 인식하는 것이 중요합니다. 오히려 인공지능은 과거의 데이터 패턴에 기반한 통계적 계산을 통해 작동합니다. AI는 많은 장점을 제공하지만, 그 예측은 본질적으로 불확실하다는 점을 기억하는 것이 중요합니다. 특히 전 세계적으로 자원이 제한된 환경에서 AI의 새로운 애플리케이션이 등장함에 따라 농촌의 농부나 지역 사회 의료 서비스 제공자와 같은 최종 사용자에게 과도한 부담을 줄 수 있는 위험이 있습니다. 이러한 새롭고 검증되지 않은 기술의 한계를 면밀히 검토하는 대신 최종 사용자의 기술 향상에 대한 필요성에 초점을 맞추다 보면 실수로 강조점이 실수로 옮겨갈 수 있습니다.

책임감 있는 방식으로 인공 지능을 구축하기 위한 한 가지 가능한 접근 방식은 그러한 시스템의 개발과 배포에 잠재적으로 영향을 미칠 수 있는 다양한 윤리적, 사회적, 기술적 요소를 신중하게 고려하고 해결하는 것입니다. 여기에는 인공지능이 인간의 가치에 부합하고 사회 전체에 긍정적인 결과를 촉진하는 방식으로 설계되고 사용되도록 하는 동시에 잠재적인 위험과 의도하지 않은 결과를 염두에 두는 조치가 포함될 수 있습니다. 또한 다양한 배경과 분야의 이해관계자 간의 협업을 촉진하면 AI 개발에 관한 의사결정에 정보를 제공하고 그 의미와 적용에 대한 지속적인 대화를 장려하는 데 도움이 될 수 있습니다.

인공지능(AI)을 개발하기 위해서는 먼저 그 구현이 타당한지 여부를 평가하는 것이 중요합니다. AI가 특정 문제에 대한 고유한 솔루션을 제공할 수 있을까요, 아니면 다른 방법으로도 충분할까요? 또한 AI 시스템을 구축할 때 반드시 복잡하고 불투명한 모델을 사용해야 하는가, 아니면 더 간단하고 논리적인 모델로도 비슷한 결과를 얻을 수 있는가? 또한 방대한 양의 데이터에만 의존하기보다는 이론적 토대에 기반을 두어 AI 시스템 개발 프로세스에 도메인 전문 지식을 다시 통합하는 것이 중요합니다.대규모 데이터 세트의 추구는 인공지능 모델을 형성하는 데 있어 이론의 중요성을 감소시켰습니다. 따라서 도메인 지식에 뿌리를 두고 개발 중인 인공지능의 기반이 되는 변화의 프레임워크를 구축하는 것이 필수적입니다

재정적 또는 기타 수단을 통해 자원을 할당하는 개인이 의사결정 과정에서 인공지능 기술의 윤리적이고 책임 있는 구현을 효과적으로 옹호하려면 어떻게 해야 할까요?

인공지능에 대한 투자의 의미를 완전히 이해하기 위해서는 투자자가 단순히 인공지능 적용의 결과나 결과에만 초점을 맞추는 것이 아니라 인공지능 생산의 전체 수명주기를 검토하는 것이 중요합니다. 이러한 검토에는 노동의 공정한 가치 평가, AI 시스템의 생태 발자국, 기업의 기본 비즈니스 모델, 데이터 프라이버시에 대한 접근 방식 등 다양한 요소가 포함되어야 합니다. 또한, 투자자는 자원을 투입하기 전에 AI의 장점에 대한 보다 강력한 실증적 검증을 모색해야 합니다.