댓글
[미국] 모두를 위한 AI 혁신,
미국 소셜섹터의 새로운 도전
2025-2
KELLY FITZSIMMONS
Summary. 신중하게 설계된 AI 애플리케이션은 비영리 조직이 더욱 강력하고 공정한 성과를 달성하는 데 중요한 역할을 한다.
AI는 빠르게 진화하며, 전 세계 다양한 분야에서 사람과 조직의 사고방식 및 행동양식을 변화시키고 있다. 미국에서는 넷플릭스와 아마존 같은 기업들이 이미 수년 전부터 AI를 활용한 맞춤형 추천 서비스를 제공하고 있고, 고객을 위한 가상 비서 역할을 해왔다. 딥마인드DeepMind와 같은 연구 기관은 의료 분야 연구에 박차를 가하고 있으며, 기후변화 대응에도 AI를 활용하고 있다.
하지만 비영리 조직들은 오늘날의 기술혁신 흐름에서 상대적으로 뒤처져 있다. 이는 어느 정도 이해할 만하다. 비영리 영역은 다른 영역과 달리 부족한 연구개발 투자와 AI 전문 인력 부족 등 광범위한 한계를 안고 있기 때문이다. 그러나 이러한 상황은 반드시 달라져야 한다. AI가 우리의 일과 삶 전반에 미치는 영향은 앞으로 더욱 커질 것이고, 소셜섹터가 이 흐름에 관여하지 않을 수 없기 때문이다. 비영리 조직은 AI의 발전 과정에서 중요한 역할을 수행할 수 있다. 공정성을 고려해 설계되고 구현된 AI 도구는 데이터 격차와 편향을 줄이고, 비영리 조직의 활동을 한층 효과적으로 만들 수 있다. 이러한 변화를 위해 후원기관과 비영리 분야 리더, AI 전문가들은 소셜섹터의 공정한 AI 실현을 위해 긴밀하게 협력하고, 신속히 행동해야 한다.
형평성 실현을 위한 AI 활용
물론 AI가 수많은 새로운 기회를 열어줄 수 있지만, 심각한 피해를 초래할 수 있다는 점도 잘 알려져 있다. AI 알고리즘은 사회 전반에서 수집된 데이터를 학습하기 때문에 처음부터 편향이 내재될 수밖에 없다. 예를 들어 미국의 금융 산업은 AI를 활용해 대출 결정을 내리는데, 여성과 유색인종 커뮤니티에 대한 구조적 차별의 오랜 역사를 가지고 있다. 레드라이닝redlining(은행과 보험 회사가 특정한 지역에 대해 금융 서비스를 거부하는 행위)이나 불공정한 감정평가 및 대출 심사 정책이 대표적이다. 과거 데이터를 학습한 알고리즘은 특정 우편번호, 직업군, 인종, 성별과 관련된 대리 변수 등을 통해 의도적으로 불이익을 주던 관행을 재현할 수 있다. 이런 편향이 교정되지 않으면, AI는 불공정한 대출 관행과 금융 불평등을 오히려 심화시킬 가능성이 크다. 선의를 가진 비영리 조직이더라도, 잘못 설계된 AI 애플리케이션으로 인해 의도치 않은 부작용을 초래할 수 있다. 예를 들어 사회적기업가에게 초기 자금을 지원하는 기관이 편향된 금융 데이터를 기반으로 AI를 학습시키면, 부의 형평성을 높이려던 본래 미션과 달리 특정 집단에만 혜택이 집중되어 불평등을 심화시킬 수 있다.
AI가 행정, 분석, 창의적 업무를 수행하는 능력이 빠르게 향상되면서, 많은 직업군은 물론 일부 산업은 전체가 도태될 수 있다는 우려가 커지고 있다. 디지털 미디어 기업인 버즈피드Buzzfeed는 최근 자사 웹사이트에 게재할 콘텐츠를 AI로 생성하기 시작했다. 이처럼 예산이 부족한 비영리 조직이 마케팅팀을 축소하고, AI 언어 모델인 챗GPT에 의존하는 상황은 충분히 현실화될 수 있다. 게다가 AI 공정성을 조직이 적극 고려하도록 유도할 수 있는 규제나 재정적 인센티브가 부족한 상황에서 이 문제는 조직에서 후순위로 밀려나기 쉽다. 실제로 구글이나 마이크로소프트 같은 주요 기술 기업들조차 최근 몇 년 사이 윤리적 AI 부서를 축소하거나 인력을 감원한 바 있다.
이러한 우려는 비영리 조직이 반드시 해결해야 할 중요한 과제다. 그러나 공정성을 충분히 고려해 신중하게 개발된 AI 기반 애플리케이션은 비영리 조직이 더 강력하고 공정한 성과를 이루는 데 큰 잠재력을 발휘할 수 있다. 이러한 가능성은 특히 다음 세 가지 분야에서 두드러진다.
1. 데이터 격차 해소
민간 부문과 소셜섹터 간의 데이터 격차가 점점 벌어지면서, 미국에서 핵심 사회서비스를 제공하는 비영리 조직의 효율성이 떨어지고, 지원 대상들이 필요한 도움을 받지 못할 위험이 커지고 있다. 스탠퍼드 소셜 이노베이션 리뷰에 실린 글에서 크리스 다이글마이어Kriss Deiglmeir는 다음과 같이 지적한다. "데이터는 곧 권력이다. 안타까운 현실은 이 권력이 점점 더 영리 부문에 집중되는 반면, 공정하고 지속가능하며 번영하는 세상을 만들고자 하는 조직들에게는 돌아가고 있지 않다는 점이다." AI는 데이터와 증거를 생성하고 활용하는 과정을 민주화함으로써 이러한 흐름을 바꿀 수 있다. 이를 통해 예산이나 내부 전문 인력이 부족한 조직을 포함해, 더 많은 비영리 조직이 지속적인 연구개발, 평가, 데이터 분석을 보다 쉽게 수행할 수 있다.
Quill.org의 사례를 살펴보자. 이 비영리 조직은 학생들의 독해력, 글쓰기, 언어 능력 향상을 돕는 무료 도구를 제공한다. Quill.org는 AI 기반 챗봇을 활용해 학생들이 특정 글을 읽고 자유 형식의 질문에 답하도록 한다. 챗봇은 학생의 답변을 분석한 뒤, 주장에 대한 근거 제시나 문장의 명확성 등 글쓰기 개선을 위한 피드백을 제공한다. 이러한 기술을 통해, 그동안 비판적 사고력과 글쓰기 지도를 받기 어려웠던 학생과 학교에도 양질의 교육 기회가 열리고 있다. Quill.org의 설립자이자 상임이사인 피터 골트Peter Gault는 이렇게 말한다. "미국에는 기본적인 글쓰기 능력에서 어려움을 겪는 저소득층 학생이 2,700만 명이나 됩니다. 이들은 학교와 직장에서 지속적으로 불이익을 받고 있죠. … AI를 활용해 학생들에게 즉각적인 피드백을 제공하면, 교사들은 수백만 명의 학생들이 더 나은 글쓰기 실력과 비판적 사고력을 갖추고, 적극적인 민주주의 사회 구성원으로 성장하도록 도울 수 있습니다."
2. 편향 줄이기
AI가 편향을 강화하는 사례는 이미 수도 없이 많다. 예를 들어, 일부 경찰서는 흑인 피고인의 재범 위험을 백인보다 높게 판단하는 알고리즘을 사용하고, 기업은 여성 지원자에게 불이익을 주는 채용 알고리즘을 활용한다. 그러나 AI는 공정한 의사결정을 지원함으로써 오히려 편향을 줄일 수도 있다. 신중하게 설계된 알고리즘은 인종, 성별, 나이처럼 결과와 무관한 변수를 배제해, 판단에 자주 개입되는 편향 요소를 제거한다. 이를 통해 비영리 조직의 실무자들은 무의식적인 편견이나 판단의 맹점을 넘어, 데이터 기반의 패턴 분석과 실증적 증거에 근거한 결정을 내릴 수 있다.
AI를 활용해 증거 기반 의사결정을 지원하는 사례로 '퍼스트 플레이스 포 유스First Place for Youth'가 있다. 이 비영리 조직은 위탁 보호 청소년들이 자립하여 책임감 있는 성인으로 성장할 수 있도록 돕는다. 퍼스트 플레이스 포 유스는 '정밀 분석precision analytics', 즉 데이터에서 인과관계를 발견하여 추세와 행동 패턴을 예측하는 기술을 활용한 추천 엔진을 개발했다. 이 추천 엔진은 자립 프로그램 운영 정보와 사례 평가 데이터를 분석하고, 다양한 청소년 그룹 간의 성과 차이를 학습함으로써, 특정 대상에게 효과가 있었던 과거 지원 방식을 파악하고, 각 개인에게 성공 가능성이 높은 맞춤형 지원을 설계할 수 있도록 돕는다. 형평성의 관점에서 설계된 이 알고리즘은, 서로 다른 인구 집단이 프로그램의 각종 서비스나 혜택에 동등하게 접근하고 있는지 명확히 파악할 수 있게 해준다. 또한, 기존의 어떤 편향도 답습하지 않기 위해, 아동을 특정 프로그램에 배정할 때 인종과 같은 사회문화적 요인을 기준으로 매칭하지 않도록 설계되어 있다. 그 결과, 불필요하거나 차별적인 요소가 개입되지 않는 공정한 의사결정이 가능해졌다.
3. 효율성 향상
AI가 저지른 실수에 관한 이야기는 가벼운 해프닝부터 섬뜩한 사건까지 다양하다. 예를 들어, 빙Bing의 챗봇이 뉴욕타임스 칼럼니스트에게 우울한 환상을 털어놓으며 사랑을 고백한 일, AI가 만든 사인펠드Seinfeld 패러디 방송이 트랜스젠더 혐오 발언으로 트위치에서 퇴출된 사례, 마이크로소프트 챗봇이 인종차별 발언을 해 서비스가 중단된 사건 등이 있다. 그럼에도 추천 엔진, 정밀 분석, 자연어 처리 같은 AI 애플리케이션은 인간의 실수를 줄이고, 조직의 생산성과 실행력을 높이는 데 큰 잠재력을 지닌다. 반복적이고 지루한 업무를 AI에 맡기면, 인력이 부족한 비영리 조직 구성원들은 전략 수립이나 대면 소통처럼 기계가 대신할 수 없는 핵심 업무에 더 많은 시간과 역량을 집중할 수 있다.
크라이시스 텍스트 라인Crisis Text Line은 문자 기반의 무료 정신건강 지원과 위기 개입 서비스를 제공하는 비영리 조직으로, 개인 맞춤형 고품질 서비스를 유지하면서 효율성과 확장성을 높이기 위해 AI를 적극 활용하고 있다. 이 단체는 과거 문자 데이터를 학습한 AI를 통해 위험 신호가 되는 키워드와 단어 조합을 인식해, 발신자의 위기 심각도를 더 빠르고 정확하게 분류 및 대응한다. 또한 위기 대응 역량이 뛰어난 자원봉사자를 양성하기 위해 교육 과정에도 AI를 도입했다. 실제에 가까운 가상 사례로 훈련된 자연어 처리 알고리즘이 불안, 자해 등 민감한 상황을 다룰 때 실제 상담과 유사한 대화를 재현해, 자원봉사자들의 실습을 돕는다. 덕분에 자원봉사자들은 자신의 일정에 맞춰 교육을 이수할 수 있고, 조직은 교육과 운영을 효율적으로 관리할 수 있다. 무엇보다 AI를 통해 훈련된 자원봉사자들과 직원들이 내담자에게 고품질의 실시간 지원을 제공하는 데 더 많은 시간과 역량을 집중할 수 있게 되었다.
비영리 부문의 AI 발전 지원
앞서 소개한 사례들은 AI가 지닌 잠재력을 보여주는 흥미로운 사례지만, 아쉽게도 그것들은 아직 예외적인 경우에 가깝다. 이제 소셜섹터는 이 중요한 시점을 놓치지 않기 위해 보다 적극적인 노력을 기울여야 한다. 무엇이 가능한지를 스스로 증명하고, 공정한 AI를 실현하는 데 필요한 도구와 인프라를 구축해야 한다.
내가 속한 조직인 프로젝트 에비던트Project Evident는 데이터와 증거의 힘을 활용해 단체들이 더 큰 사회적 영향력을 발휘하도록 지원하고, 보다 강력하고 공정한 '증거 기반 생태계'를 조성하는 일에 힘쓰고 있다. 최근 우리는 AI에 중점을 둔 18개월간의 이니셔티브를 진행했다. 이 기간 동안 프로그램 성과 강화를 위해 AI를 도입하고자 하는 비영리 조직을 모아 코호트를 운영하고, 이들이 AI를 조직에 시범 적용해나가는 과정을 사례 연구로 정리했다. 또한 효과적이고 공정한 AI 도구 개발을 위한 인사이트를 얻고자, 현재 스탠퍼드 인간 중심 AI 연구소Stanford Institute for Human-Centered AI와 협력해 미국 내 비영리 조직과 자금 지원 기관을 대상으로 한 전국 단위 설문조사를 진행하고 있다. 이 조사는 비영리 조직의 AI 활용 현황과 학습 수요를 심층적으로 파악하는 데 목적이 있다. 우리는 이러한 프로젝트들을 진행하며 소셜섹터가 공정한 AI 생태계를 강화하기 위해 실천 가능한 여러 방안을 도출할 수 있었다.
1. AI 도구에 대한 투자를 확대해야 한다
많은 비영리 조직과 지역 교육청은 AI가 업무에 어떤 도움이 될 수 있을지에 큰 관심을 두고 있지만, 정작 이를 실제로 시도할 수 있는 수단과 자원은 부족하다. 코호트에 참여했던 교육 분야 비영리 조직인 디지털 프로미스Digital Promise 대표 장클로드 브리자르Jean-Claude Brizard는 이렇게 말한다. "비영리 조직의 자금 구조를 보면, 이런 시도를 실제로 해볼 수 있는 여건이 마련되어 있지 않습니다. 대부분의 조직은 시간도, 자원도 부족하죠." 이 문제에 대한 비교적 간단한 해결책 중 하나는 보조금 지원 확대이다. 펀더가 AI를 활용해 공정성을 높이고 있는 조직(AI 네이티브)뿐 아니라, AI 도입에 관심은 있지만 자본과 지원이 부족한 조직(AI 탐색자)에게도 보조금을 지원하는 것이다.
재단들도 AI에 대한 자체 학습과 실험에 적극 투자해야 한다. AI를 활용해 기금 지원 과정을 더욱 효율화하거나 자금 지원 전략을 개선할 수 있는 가능성에 대해 검토해 볼 필요가 있다. 우리가 협력한 한 재단은 과거 기금 보고서를 AI로 분석해, 효과적인 자금 지원 전략의 주요 패턴을 도출했다. 이 재단은 평가 전문가와 데이터 과학자로 구성된 팀과 함께 수천 건의 제안서와 보고서에 담긴 텍스트 데이터를 대규모 언어모델LLM에 학습시키고, 사람의 검증을 거쳐 정확도를 높였다. 이렇게 얻은 데이터는 구조화된 장기 추적형 데이터로 전환되었으며, 설문조사·인터뷰·포커스 그룹 등에서 수집한 1차 평가 데이터와 결합되었다. 이후에는 변화이론에 따라 데이터를 정제, 가공, 구조화, 프레이밍, 라벨링하고, 머신러닝 알고리즘에 전문가 검토를 반영해 기술적, 예측적, 인과적 모델링을 수행했다. 그 결과, 재단의 실무자들은 보고서 작성에 즉시 활용 가능한 데이터는 물론, 인터랙티브 리포트, 시각화 자료, 대시보드 등 다양한 도구를 확보하게 되었다. 무엇이 효과적이었고, 무엇이 그렇지 않았는지에 대한 이해도 더욱 깊어졌다. 이러한 접근 방식을 통해 재단은 기존의 경험과 성과를 바탕으로 새로운 보조금 전략을 수립하고, 축적된 지식을 수혜기관과 생태계 전반에 공유하고 확산할 수 있다. 이러한 효율성 덕분에 프로그램 담당자들은 수혜기관, 예비 수혜기관, 지역사회와의 신뢰 기반 관계 형성에 더 많은 시간을 투입할 수 있게 되었는데, 이러한 역할은 AI가 대신할 수 없는 인간 고유의 영역이다.
2. AI 형평성 문제, 협력으로 풀어야 한다
또 하나의 문제는 많은 조직들이 AI 개발 과정에서 윤리성과 형평성 문제를 충분히 고려하도록 유도하는 재정적 혹은 규제적 인센티브가 거의 없다는 점이다. 영리 부문에서 개발되는 대부분의 AI 도구와 프로세스는 수익성과 확장성을 중심에 두고 설계되고 있다.
이러한 한계를 극복하려면 연구자, 정책 입안자, 기술 지원 기관, 펀더, 비영리 실무자, 지역사회 구성원이 형평성을 고려한 AI 실천과 정책을 발전시키기 위해 조율된 방식으로 협력해야 한다. 협력의 범위에는 입법과 규제 추진, 분야별 프레임워크 및 기준 개발, 지역사회와의 협력을 통한 지역 맞춤형 도구 공동 개발 그리고 AI 알고리즘의 편향성 테스트 및 모니터링 방법에 대한 지식 및 실천 사례 공유가 포함될 수 있다.
최근 소셜섹터에 더 나은 지원과 실질적인 방향성을 제공하려는 다양한 노력이 전개되고 있다. 2023년 6월, 척 슈머Chuck Schumer 미국 상원 민주당 원내대표는 의회가 초당적이고, 포괄적인 AI 관련 법안 마련을 지원하기 위해 AI 포럼을 개최한 바 있다. 첫 번째 포럼에는 기술 전문가뿐 아니라, 노동 및 시민권 운동가들도 함께 참여했다. 또 다른 사례로는 분산형 AI 연구소Distributed AI Research Institute가 있다. 이 연구소는 AI가 소외 계층에 미치는 불균형적이고 부정적인 영향을 연구하고, 지역사회의 목소리를 반영해 형평성을 중심에 둔 AI 개발 및 실천 프레임워크를 마련하고 있다. 이 두 사례는 형평성과 AI 문제를 선제적으로 다루며, 부문 간 협력의 가능성을 보여주는 의미 있는 시도라 할 수 있다.
3. 기본에 충실해야 한다
조직이 형평성을 고려한 AI를 도입하기에 앞서 갖춰야 할 몇 가지 핵심 요소가 있다. 그중에는 대표적으로 명확한 전략 목표와 적절한 기술 시스템, 정의와 형평성을 고려한 설계 역량, 지속적인 학습 문화 조성이 있다. 이 요소들이 새롭거나 AI 분야에 국한된 것은 아니지만, 소셜섹터에서는 여전히 간과되거나 충분한 투자가 이뤄지지 않는 것이 현실이다.
프로젝트 에비던트는 다양한 조직과 협력해 전략적 증거 계획을 수립해 왔다. 이는 지속적으로 근거를 수집하고, 그에 기반해 프로그램을 개선하기 위한 로드맵을 만드는 과정이다. 비영리 조직이 이사회 또는 펀더의 요구 때문이거나 단지 '옳은 일'이라는 생각 때문에 평가를 추진할 때, 우리는 한 걸음 물러서 다음과 같은 질문을 던져볼 것을 제안한다. '무엇을 배우고자 하는가?', '어떤 성과를 달성하고자 하는가?' 프로그램의 목적과 방향을 분명히 하는 것이야말로 효과적인 증거 전략 수립의 출발점이기 때문이다. 이러한 원칙은 추천 엔진이나 다른 AI 기반 도구를 개발할 때도 마찬가지다. 사실 AI 알고리즘은 프로그램의 투입 요소와 기대 성과를 구조적으로 설명하는 논리 모델을 기술적으로 구현한 것에 불과하다.
비영리 조직의 리더들은 AI를 도입하기에 앞서 조직이 이러한 기반을 제대로 갖추고 있는지 점검해야 한다. 동시에 소셜섹터의 다른 이해관계자들도 조직이 기반 역량을 구축할 수 있도록 충분한 자금과 적절한 도구를 지원할 필요가 있다. 필라델피아의 사회복지 기관 젬마 서비스Gemma Services는 AI 도구 개발을 위한 자금을 성공적으로 유치한 사례로, 이러한 기반 구축의 중요성을 잘 보여준다. 이 단체는 AI의 활용이 조직 내부에 유용할 뿐 아니라, 필라델피아 전역의 정신건강 문제에 관심을 두고 있는 펀더 및 정책 입안자에게도 유의미한 통찰을 제공할 수 있음을 보여줬다. 이러한 점을 지역 재단인 스캐터굿 재단Scattergood Foundation과 필라델피아시에 설득력 있게 제시함으로써, AI 도구 개발에 필요한 자금을 성공적으로 확보할 수 있었다.
소셜섹터에서 AI가 지닌 잠재력은 실로 크다. 신중하게 설계된 AI 애플리케이션은 데이터 격차를 해소하고, 편향을 줄이며, 비영리 조직이 보다 효과적으로 일하도록 도울 수 있다. 그러나 이러한 잠재력을 온전히 실현하기 위해서는 충분한 자원 제공, 형평성을 우선하는 접근, 조직 핵심역량 강화에 대한 투자 등 강력한 인프라를 갖춘 소셜섹터 생태계를 조성해야 한다. 더 많은 자원과 더 효과적인 협력 그리고 높은 수준의 전략적 의도를 통해, 우리는 소셜섹터가 AI의 힘을 활용해 모두를 위한 보다 강력하고 형평성 있는 성과를 달성하도록 지원할 수 있다.
> 원문 기사 보기
KELLY FITZSIMMONS
켈리 피츠시몬스는 강력하고 공정한 증거 기반 생태계 구축을 미션으로 하는 프로젝트 에비던트Project Evident의 설립자이자 CEO이다. 열정적인 사회혁신가이기도 한 그녀는 에드나 맥코넬 클라크 재단Edna McConnell Clark Foundation의 부대표 및 최고 프로그램 전략 책임자를 지냈으며, 리드웰 파트너스Leadwell Partners와 뉴 프로핏New Profit을 공동 설립했다. 현재는 리프 커뮤니티Leap Community의 앰베서더, 리절츠 포 아메리카Results for America의 성과 기반 투자 연방 우수 기준 자문위원으로 활동하고 있다.
댓글
사회혁신 일반 · 기술
[미국] 모두를 위한 AI 혁신,
미국 소셜섹터의 새로운 도전
2025-2
KELLY FITZSIMMONS
Summary. 신중하게 설계된 AI 애플리케이션은 비영리 조직이 더욱 강력하고 공정한 성과를 달성하는 데 중요한 역할을 한다.
AI는 빠르게 진화하며, 전 세계 다양한 분야에서 사람과 조직의 사고방식 및 행동양식을 변화시키고 있다. 미국에서는 넷플릭스와 아마존 같은 기업들이 이미 수년 전부터 AI를 활용한 맞춤형 추천 서비스를 제공하고 있고, 고객을 위한 가상 비서 역할을 해왔다. 딥마인드DeepMind와 같은 연구 기관은 의료 분야 연구에 박차를 가하고 있으며, 기후변화 대응에도 AI를 활용하고 있다.
하지만 비영리 조직들은 오늘날의 기술혁신 흐름에서 상대적으로 뒤처져 있다. 이는 어느 정도 이해할 만하다. 비영리 영역은 다른 영역과 달리 부족한 연구개발 투자와 AI 전문 인력 부족 등 광범위한 한계를 안고 있기 때문이다. 그러나 이러한 상황은 반드시 달라져야 한다. AI가 우리의 일과 삶 전반에 미치는 영향은 앞으로 더욱 커질 것이고, 소셜섹터가 이 흐름에 관여하지 않을 수 없기 때문이다. 비영리 조직은 AI의 발전 과정에서 중요한 역할을 수행할 수 있다. 공정성을 고려해 설계되고 구현된 AI 도구는 데이터 격차와 편향을 줄이고, 비영리 조직의 활동을 한층 효과적으로 만들 수 있다. 이러한 변화를 위해 후원기관과 비영리 분야 리더, AI 전문가들은 소셜섹터의 공정한 AI 실현을 위해 긴밀하게 협력하고, 신속히 행동해야 한다.
형평성 실현을 위한 AI 활용
물론 AI가 수많은 새로운 기회를 열어줄 수 있지만, 심각한 피해를 초래할 수 있다는 점도 잘 알려져 있다. AI 알고리즘은 사회 전반에서 수집된 데이터를 학습하기 때문에 처음부터 편향이 내재될 수밖에 없다. 예를 들어 미국의 금융 산업은 AI를 활용해 대출 결정을 내리는데, 여성과 유색인종 커뮤니티에 대한 구조적 차별의 오랜 역사를 가지고 있다. 레드라이닝redlining(은행과 보험 회사가 특정한 지역에 대해 금융 서비스를 거부하는 행위)이나 불공정한 감정평가 및 대출 심사 정책이 대표적이다. 과거 데이터를 학습한 알고리즘은 특정 우편번호, 직업군, 인종, 성별과 관련된 대리 변수 등을 통해 의도적으로 불이익을 주던 관행을 재현할 수 있다. 이런 편향이 교정되지 않으면, AI는 불공정한 대출 관행과 금융 불평등을 오히려 심화시킬 가능성이 크다. 선의를 가진 비영리 조직이더라도, 잘못 설계된 AI 애플리케이션으로 인해 의도치 않은 부작용을 초래할 수 있다. 예를 들어 사회적기업가에게 초기 자금을 지원하는 기관이 편향된 금융 데이터를 기반으로 AI를 학습시키면, 부의 형평성을 높이려던 본래 미션과 달리 특정 집단에만 혜택이 집중되어 불평등을 심화시킬 수 있다.
AI가 행정, 분석, 창의적 업무를 수행하는 능력이 빠르게 향상되면서, 많은 직업군은 물론 일부 산업은 전체가 도태될 수 있다는 우려가 커지고 있다. 디지털 미디어 기업인 버즈피드Buzzfeed는 최근 자사 웹사이트에 게재할 콘텐츠를 AI로 생성하기 시작했다. 이처럼 예산이 부족한 비영리 조직이 마케팅팀을 축소하고, AI 언어 모델인 챗GPT에 의존하는 상황은 충분히 현실화될 수 있다. 게다가 AI 공정성을 조직이 적극 고려하도록 유도할 수 있는 규제나 재정적 인센티브가 부족한 상황에서 이 문제는 조직에서 후순위로 밀려나기 쉽다. 실제로 구글이나 마이크로소프트 같은 주요 기술 기업들조차 최근 몇 년 사이 윤리적 AI 부서를 축소하거나 인력을 감원한 바 있다.
이러한 우려는 비영리 조직이 반드시 해결해야 할 중요한 과제다. 그러나 공정성을 충분히 고려해 신중하게 개발된 AI 기반 애플리케이션은 비영리 조직이 더 강력하고 공정한 성과를 이루는 데 큰 잠재력을 발휘할 수 있다. 이러한 가능성은 특히 다음 세 가지 분야에서 두드러진다.
1. 데이터 격차 해소
민간 부문과 소셜섹터 간의 데이터 격차가 점점 벌어지면서, 미국에서 핵심 사회서비스를 제공하는 비영리 조직의 효율성이 떨어지고, 지원 대상들이 필요한 도움을 받지 못할 위험이 커지고 있다. 스탠퍼드 소셜 이노베이션 리뷰에 실린 글에서 크리스 다이글마이어Kriss Deiglmeir는 다음과 같이 지적한다. "데이터는 곧 권력이다. 안타까운 현실은 이 권력이 점점 더 영리 부문에 집중되는 반면, 공정하고 지속가능하며 번영하는 세상을 만들고자 하는 조직들에게는 돌아가고 있지 않다는 점이다." AI는 데이터와 증거를 생성하고 활용하는 과정을 민주화함으로써 이러한 흐름을 바꿀 수 있다. 이를 통해 예산이나 내부 전문 인력이 부족한 조직을 포함해, 더 많은 비영리 조직이 지속적인 연구개발, 평가, 데이터 분석을 보다 쉽게 수행할 수 있다.
Quill.org의 사례를 살펴보자. 이 비영리 조직은 학생들의 독해력, 글쓰기, 언어 능력 향상을 돕는 무료 도구를 제공한다. Quill.org는 AI 기반 챗봇을 활용해 학생들이 특정 글을 읽고 자유 형식의 질문에 답하도록 한다. 챗봇은 학생의 답변을 분석한 뒤, 주장에 대한 근거 제시나 문장의 명확성 등 글쓰기 개선을 위한 피드백을 제공한다. 이러한 기술을 통해, 그동안 비판적 사고력과 글쓰기 지도를 받기 어려웠던 학생과 학교에도 양질의 교육 기회가 열리고 있다. Quill.org의 설립자이자 상임이사인 피터 골트Peter Gault는 이렇게 말한다. "미국에는 기본적인 글쓰기 능력에서 어려움을 겪는 저소득층 학생이 2,700만 명이나 됩니다. 이들은 학교와 직장에서 지속적으로 불이익을 받고 있죠. … AI를 활용해 학생들에게 즉각적인 피드백을 제공하면, 교사들은 수백만 명의 학생들이 더 나은 글쓰기 실력과 비판적 사고력을 갖추고, 적극적인 민주주의 사회 구성원으로 성장하도록 도울 수 있습니다."
2. 편향 줄이기
AI가 편향을 강화하는 사례는 이미 수도 없이 많다. 예를 들어, 일부 경찰서는 흑인 피고인의 재범 위험을 백인보다 높게 판단하는 알고리즘을 사용하고, 기업은 여성 지원자에게 불이익을 주는 채용 알고리즘을 활용한다. 그러나 AI는 공정한 의사결정을 지원함으로써 오히려 편향을 줄일 수도 있다. 신중하게 설계된 알고리즘은 인종, 성별, 나이처럼 결과와 무관한 변수를 배제해, 판단에 자주 개입되는 편향 요소를 제거한다. 이를 통해 비영리 조직의 실무자들은 무의식적인 편견이나 판단의 맹점을 넘어, 데이터 기반의 패턴 분석과 실증적 증거에 근거한 결정을 내릴 수 있다.
AI를 활용해 증거 기반 의사결정을 지원하는 사례로 '퍼스트 플레이스 포 유스First Place for Youth'가 있다. 이 비영리 조직은 위탁 보호 청소년들이 자립하여 책임감 있는 성인으로 성장할 수 있도록 돕는다. 퍼스트 플레이스 포 유스는 '정밀 분석precision analytics', 즉 데이터에서 인과관계를 발견하여 추세와 행동 패턴을 예측하는 기술을 활용한 추천 엔진을 개발했다. 이 추천 엔진은 자립 프로그램 운영 정보와 사례 평가 데이터를 분석하고, 다양한 청소년 그룹 간의 성과 차이를 학습함으로써, 특정 대상에게 효과가 있었던 과거 지원 방식을 파악하고, 각 개인에게 성공 가능성이 높은 맞춤형 지원을 설계할 수 있도록 돕는다. 형평성의 관점에서 설계된 이 알고리즘은, 서로 다른 인구 집단이 프로그램의 각종 서비스나 혜택에 동등하게 접근하고 있는지 명확히 파악할 수 있게 해준다. 또한, 기존의 어떤 편향도 답습하지 않기 위해, 아동을 특정 프로그램에 배정할 때 인종과 같은 사회문화적 요인을 기준으로 매칭하지 않도록 설계되어 있다. 그 결과, 불필요하거나 차별적인 요소가 개입되지 않는 공정한 의사결정이 가능해졌다.
3. 효율성 향상
AI가 저지른 실수에 관한 이야기는 가벼운 해프닝부터 섬뜩한 사건까지 다양하다. 예를 들어, 빙Bing의 챗봇이 뉴욕타임스 칼럼니스트에게 우울한 환상을 털어놓으며 사랑을 고백한 일, AI가 만든 사인펠드Seinfeld 패러디 방송이 트랜스젠더 혐오 발언으로 트위치에서 퇴출된 사례, 마이크로소프트 챗봇이 인종차별 발언을 해 서비스가 중단된 사건 등이 있다. 그럼에도 추천 엔진, 정밀 분석, 자연어 처리 같은 AI 애플리케이션은 인간의 실수를 줄이고, 조직의 생산성과 실행력을 높이는 데 큰 잠재력을 지닌다. 반복적이고 지루한 업무를 AI에 맡기면, 인력이 부족한 비영리 조직 구성원들은 전략 수립이나 대면 소통처럼 기계가 대신할 수 없는 핵심 업무에 더 많은 시간과 역량을 집중할 수 있다.
크라이시스 텍스트 라인Crisis Text Line은 문자 기반의 무료 정신건강 지원과 위기 개입 서비스를 제공하는 비영리 조직으로, 개인 맞춤형 고품질 서비스를 유지하면서 효율성과 확장성을 높이기 위해 AI를 적극 활용하고 있다. 이 단체는 과거 문자 데이터를 학습한 AI를 통해 위험 신호가 되는 키워드와 단어 조합을 인식해, 발신자의 위기 심각도를 더 빠르고 정확하게 분류 및 대응한다. 또한 위기 대응 역량이 뛰어난 자원봉사자를 양성하기 위해 교육 과정에도 AI를 도입했다. 실제에 가까운 가상 사례로 훈련된 자연어 처리 알고리즘이 불안, 자해 등 민감한 상황을 다룰 때 실제 상담과 유사한 대화를 재현해, 자원봉사자들의 실습을 돕는다. 덕분에 자원봉사자들은 자신의 일정에 맞춰 교육을 이수할 수 있고, 조직은 교육과 운영을 효율적으로 관리할 수 있다. 무엇보다 AI를 통해 훈련된 자원봉사자들과 직원들이 내담자에게 고품질의 실시간 지원을 제공하는 데 더 많은 시간과 역량을 집중할 수 있게 되었다.
비영리 부문의 AI 발전 지원
앞서 소개한 사례들은 AI가 지닌 잠재력을 보여주는 흥미로운 사례지만, 아쉽게도 그것들은 아직 예외적인 경우에 가깝다. 이제 소셜섹터는 이 중요한 시점을 놓치지 않기 위해 보다 적극적인 노력을 기울여야 한다. 무엇이 가능한지를 스스로 증명하고, 공정한 AI를 실현하는 데 필요한 도구와 인프라를 구축해야 한다.
내가 속한 조직인 프로젝트 에비던트Project Evident는 데이터와 증거의 힘을 활용해 단체들이 더 큰 사회적 영향력을 발휘하도록 지원하고, 보다 강력하고 공정한 '증거 기반 생태계'를 조성하는 일에 힘쓰고 있다. 최근 우리는 AI에 중점을 둔 18개월간의 이니셔티브를 진행했다. 이 기간 동안 프로그램 성과 강화를 위해 AI를 도입하고자 하는 비영리 조직을 모아 코호트를 운영하고, 이들이 AI를 조직에 시범 적용해나가는 과정을 사례 연구로 정리했다. 또한 효과적이고 공정한 AI 도구 개발을 위한 인사이트를 얻고자, 현재 스탠퍼드 인간 중심 AI 연구소Stanford Institute for Human-Centered AI와 협력해 미국 내 비영리 조직과 자금 지원 기관을 대상으로 한 전국 단위 설문조사를 진행하고 있다. 이 조사는 비영리 조직의 AI 활용 현황과 학습 수요를 심층적으로 파악하는 데 목적이 있다. 우리는 이러한 프로젝트들을 진행하며 소셜섹터가 공정한 AI 생태계를 강화하기 위해 실천 가능한 여러 방안을 도출할 수 있었다.
1. AI 도구에 대한 투자를 확대해야 한다
많은 비영리 조직과 지역 교육청은 AI가 업무에 어떤 도움이 될 수 있을지에 큰 관심을 두고 있지만, 정작 이를 실제로 시도할 수 있는 수단과 자원은 부족하다. 코호트에 참여했던 교육 분야 비영리 조직인 디지털 프로미스Digital Promise 대표 장클로드 브리자르Jean-Claude Brizard는 이렇게 말한다. "비영리 조직의 자금 구조를 보면, 이런 시도를 실제로 해볼 수 있는 여건이 마련되어 있지 않습니다. 대부분의 조직은 시간도, 자원도 부족하죠." 이 문제에 대한 비교적 간단한 해결책 중 하나는 보조금 지원 확대이다. 펀더가 AI를 활용해 공정성을 높이고 있는 조직(AI 네이티브)뿐 아니라, AI 도입에 관심은 있지만 자본과 지원이 부족한 조직(AI 탐색자)에게도 보조금을 지원하는 것이다.
재단들도 AI에 대한 자체 학습과 실험에 적극 투자해야 한다. AI를 활용해 기금 지원 과정을 더욱 효율화하거나 자금 지원 전략을 개선할 수 있는 가능성에 대해 검토해 볼 필요가 있다. 우리가 협력한 한 재단은 과거 기금 보고서를 AI로 분석해, 효과적인 자금 지원 전략의 주요 패턴을 도출했다. 이 재단은 평가 전문가와 데이터 과학자로 구성된 팀과 함께 수천 건의 제안서와 보고서에 담긴 텍스트 데이터를 대규모 언어모델LLM에 학습시키고, 사람의 검증을 거쳐 정확도를 높였다. 이렇게 얻은 데이터는 구조화된 장기 추적형 데이터로 전환되었으며, 설문조사·인터뷰·포커스 그룹 등에서 수집한 1차 평가 데이터와 결합되었다. 이후에는 변화이론에 따라 데이터를 정제, 가공, 구조화, 프레이밍, 라벨링하고, 머신러닝 알고리즘에 전문가 검토를 반영해 기술적, 예측적, 인과적 모델링을 수행했다. 그 결과, 재단의 실무자들은 보고서 작성에 즉시 활용 가능한 데이터는 물론, 인터랙티브 리포트, 시각화 자료, 대시보드 등 다양한 도구를 확보하게 되었다. 무엇이 효과적이었고, 무엇이 그렇지 않았는지에 대한 이해도 더욱 깊어졌다. 이러한 접근 방식을 통해 재단은 기존의 경험과 성과를 바탕으로 새로운 보조금 전략을 수립하고, 축적된 지식을 수혜기관과 생태계 전반에 공유하고 확산할 수 있다. 이러한 효율성 덕분에 프로그램 담당자들은 수혜기관, 예비 수혜기관, 지역사회와의 신뢰 기반 관계 형성에 더 많은 시간을 투입할 수 있게 되었는데, 이러한 역할은 AI가 대신할 수 없는 인간 고유의 영역이다.
2. AI 형평성 문제, 협력으로 풀어야 한다
또 하나의 문제는 많은 조직들이 AI 개발 과정에서 윤리성과 형평성 문제를 충분히 고려하도록 유도하는 재정적 혹은 규제적 인센티브가 거의 없다는 점이다. 영리 부문에서 개발되는 대부분의 AI 도구와 프로세스는 수익성과 확장성을 중심에 두고 설계되고 있다.
이러한 한계를 극복하려면 연구자, 정책 입안자, 기술 지원 기관, 펀더, 비영리 실무자, 지역사회 구성원이 형평성을 고려한 AI 실천과 정책을 발전시키기 위해 조율된 방식으로 협력해야 한다. 협력의 범위에는 입법과 규제 추진, 분야별 프레임워크 및 기준 개발, 지역사회와의 협력을 통한 지역 맞춤형 도구 공동 개발 그리고 AI 알고리즘의 편향성 테스트 및 모니터링 방법에 대한 지식 및 실천 사례 공유가 포함될 수 있다.
최근 소셜섹터에 더 나은 지원과 실질적인 방향성을 제공하려는 다양한 노력이 전개되고 있다. 2023년 6월, 척 슈머Chuck Schumer 미국 상원 민주당 원내대표는 의회가 초당적이고, 포괄적인 AI 관련 법안 마련을 지원하기 위해 AI 포럼을 개최한 바 있다. 첫 번째 포럼에는 기술 전문가뿐 아니라, 노동 및 시민권 운동가들도 함께 참여했다. 또 다른 사례로는 분산형 AI 연구소Distributed AI Research Institute가 있다. 이 연구소는 AI가 소외 계층에 미치는 불균형적이고 부정적인 영향을 연구하고, 지역사회의 목소리를 반영해 형평성을 중심에 둔 AI 개발 및 실천 프레임워크를 마련하고 있다. 이 두 사례는 형평성과 AI 문제를 선제적으로 다루며, 부문 간 협력의 가능성을 보여주는 의미 있는 시도라 할 수 있다.
3. 기본에 충실해야 한다
조직이 형평성을 고려한 AI를 도입하기에 앞서 갖춰야 할 몇 가지 핵심 요소가 있다. 그중에는 대표적으로 명확한 전략 목표와 적절한 기술 시스템, 정의와 형평성을 고려한 설계 역량, 지속적인 학습 문화 조성이 있다. 이 요소들이 새롭거나 AI 분야에 국한된 것은 아니지만, 소셜섹터에서는 여전히 간과되거나 충분한 투자가 이뤄지지 않는 것이 현실이다.
프로젝트 에비던트는 다양한 조직과 협력해 전략적 증거 계획을 수립해 왔다. 이는 지속적으로 근거를 수집하고, 그에 기반해 프로그램을 개선하기 위한 로드맵을 만드는 과정이다. 비영리 조직이 이사회 또는 펀더의 요구 때문이거나 단지 '옳은 일'이라는 생각 때문에 평가를 추진할 때, 우리는 한 걸음 물러서 다음과 같은 질문을 던져볼 것을 제안한다. '무엇을 배우고자 하는가?', '어떤 성과를 달성하고자 하는가?' 프로그램의 목적과 방향을 분명히 하는 것이야말로 효과적인 증거 전략 수립의 출발점이기 때문이다. 이러한 원칙은 추천 엔진이나 다른 AI 기반 도구를 개발할 때도 마찬가지다. 사실 AI 알고리즘은 프로그램의 투입 요소와 기대 성과를 구조적으로 설명하는 논리 모델을 기술적으로 구현한 것에 불과하다.
비영리 조직의 리더들은 AI를 도입하기에 앞서 조직이 이러한 기반을 제대로 갖추고 있는지 점검해야 한다. 동시에 소셜섹터의 다른 이해관계자들도 조직이 기반 역량을 구축할 수 있도록 충분한 자금과 적절한 도구를 지원할 필요가 있다. 필라델피아의 사회복지 기관 젬마 서비스Gemma Services는 AI 도구 개발을 위한 자금을 성공적으로 유치한 사례로, 이러한 기반 구축의 중요성을 잘 보여준다. 이 단체는 AI의 활용이 조직 내부에 유용할 뿐 아니라, 필라델피아 전역의 정신건강 문제에 관심을 두고 있는 펀더 및 정책 입안자에게도 유의미한 통찰을 제공할 수 있음을 보여줬다. 이러한 점을 지역 재단인 스캐터굿 재단Scattergood Foundation과 필라델피아시에 설득력 있게 제시함으로써, AI 도구 개발에 필요한 자금을 성공적으로 확보할 수 있었다.
소셜섹터에서 AI가 지닌 잠재력은 실로 크다. 신중하게 설계된 AI 애플리케이션은 데이터 격차를 해소하고, 편향을 줄이며, 비영리 조직이 보다 효과적으로 일하도록 도울 수 있다. 그러나 이러한 잠재력을 온전히 실현하기 위해서는 충분한 자원 제공, 형평성을 우선하는 접근, 조직 핵심역량 강화에 대한 투자 등 강력한 인프라를 갖춘 소셜섹터 생태계를 조성해야 한다. 더 많은 자원과 더 효과적인 협력 그리고 높은 수준의 전략적 의도를 통해, 우리는 소셜섹터가 AI의 힘을 활용해 모두를 위한 보다 강력하고 형평성 있는 성과를 달성하도록 지원할 수 있다.
> 원문 기사 보기
KELLY FITZSIMMONS
켈리 피츠시몬스는 강력하고 공정한 증거 기반 생태계 구축을 미션으로 하는 프로젝트 에비던트Project Evident의 설립자이자 CEO이다. 열정적인 사회혁신가이기도 한 그녀는 에드나 맥코넬 클라크 재단Edna McConnell Clark Foundation의 부대표 및 최고 프로그램 전략 책임자를 지냈으며, 리드웰 파트너스Leadwell Partners와 뉴 프로핏New Profit을 공동 설립했다. 현재는 리프 커뮤니티Leap Community의 앰베서더, 리절츠 포 아메리카Results for America의 성과 기반 투자 연방 우수 기준 자문위원으로 활동하고 있다.