생성형 AI 발전에 따른
생성형 AI의 활용은 지방공공기관의 업무 효율성을 높이고, 공공서비스의 품질을 높일 수 있는 잠재력을 가지고 있다. 그러나 그와 동시에 개인정보 보호, 신뢰성, 편향성, 책임성 등의 윤리적 이슈가 함께 수반될 수 있기 때문에 이를 해결하기 위한 체계적이고 실질적인 대응이 필요하다. 공공기관은 AI를 활용한 혁신을 추진할 때 이들 문제를 해결하기 위한 체계적인 노력과 실질적인 대응을 끊임없이 강화해야 한다. 이를 통해 AI가 공공서비스 품질을 높이고, 행정 혁신을 성공적으로 이끌 수 있는 기반을 마련할 수 있을 것이다. 생성형 AI의 윤리적 이슈는 무엇인지 살펴보고, 지방공공기관이 디지털 윤리 역량을 강화하기 위한 대응방안도 살펴본다.
글. 편집실 자료. KLID 디지털 이슈리포트 23-7호

개인정보 보호, 저작권, 정보 유출 측면의 이슈
개인정보 보호의 문제
생성형 AI는 대규모 데이터를 수집하고 학습하는 과정에서 개인정보를 포함한 민감한 정보를 사용할 수 있다. 특히, AI 모델이 학습하는 데이터셋에 개인의 동의 없이 수집된 정보가 포함될 경우, 개인정보 보호와 관련된 심각한 문제가 발생할 수 있다. 예를 들어, ChatGPT와 같은 AI 모델이 인터넷에 공개된 개인정보를 학습하는 과정에서 개인의 동의 없이 그 정보를 활용했다는 논란이 일어나기도 했다.

유럽연합의 일반 개인정보 보호법(GDPR)이나 미국 캘리포니아 소비자 보호법(CCPA) 등은 개인정보 보호를 강화하기 위해 제정되었으나, AI가 수집한 데이터가 이러한 규제를 준수하는지 확인하는 것은 매우 어려운 일이다. 특히, AI가 개인정보를 처리하는 방식에 대한 투명성이 부족하고, 알고리즘이 어떻게 데이터를 처리하는지 설명하기 어렵기 때문에 개인정보 보호에 대한 우려는 계속해서 커지고 있다.
저작권 문제
생성형 AI는 인터넷에 공개된 텍스트, 이미지, 음악 등을 학습해 콘텐츠를 생성한다. 하지만 이 과정에서 저작권자의 동의 없이 콘텐츠를 사용하는 경우가 많다. 이는 AI가 웹사이트에서 수집한 텍스트를 학습해 새로운 텍스트를 생성할 때 원저작권자의 동의 없이 그 콘텐츠를 사용했다고 볼 수 있다. 이러한 문제는 저작권 침해로 이어질 수 있으며, 이는 법적 분쟁을 일으킬 수 있다. 최근에는 인공지능 저작물에 대한 법적 기준을 마련하려는 시도들이 진행되고 있지만, 저작권과 관련된 법적 문제는 아직 해결되지 않은 상태다.
정보 유출 및 보안 문제
AI 모델이 학습하는 과정에서 저장되는 데이터에는 민감한 정보가 포함될 수 있다. 예를 들어, 사용자가 AI와 상호작용하면서 입력한 개인적인 질문이나 데이터가 저장되고, 이는 성능 개선을 위한 학습 자료로 활용될 수 있다. 이 과정에서 사용자의 개인정보가 유출되거나 악용될 위험이 있다. 실제로, 2023년 7월에는 ChatGPT를 개발한 OpenAI가 개인정보 유출로 인해 과태료를 부과받은 사례가 있었다. 이 사건은 AI 시스템이 어떻게 개인정보를 취급하고 있는지에 대한 문제를 다시 한번 부각시켰다. 생성형 AI는 보안에 취약한 부분을 가질 수 있으며, 사용자의 데이터가 외부로 유출될 경우 큰 사회적 파장이 일어날 수 있다.
서비스 제공 측면의 이슈
신뢰성 문제
생성형 AI는 사용자가 입력한 질문에 가장 적합한 답변을 생성하는 방식으로 작동한다. 그러나 AI가 생성한 답변이 항상 정확하거나 사실에 기반한 것은 아니다. 이는 ‘환각(Hallucination)’ 문제로 설명할 수 있는데, AI가 사실이 아닌 정보를 그럴듯하게 제시하는 현상을 말한다. 예를 들어, ChatGPT가 경제 개념에 관한 질문에 대해 연속적으로 잘못된 답변을 제시한 사례가 있었다. 사용자가 이러한 잘못된 정보를 신뢰하고 그대로 받아들일 경우, 잘못된 결정을 내리거나 사회적 혼란을 초래할 수 있다. 특히 지방행정에서 공무원이 생성형 AI를 활용하여 잘못된 정보를 제공할 경우, 주민들에게 큰 피해를 줄 수 있다. AI 시스템이 생성하는 콘텐츠에 대한 신뢰성 확보가 매우 중요한 이슈로 대두되고 있는 이유다.
편향성 문제
생성형 AI는 학습 데이터의 특성에 따라 편향된 결과를 도출할 수 있다. 예를 들어, AI 모델이 특정 지역, 성별, 연령대에 대한 데이터를 과도하게 학습한 경우, 그 결과물이 해당 집단에 불리하거나 특정 방향으로 편향될 수 있다. 이는 AI가 생성하는 콘텐츠에 내재된 불공정성을 초래할 수 있으며, 공정한 결정이 필요한 공공 부문에서 AI를 활용할 때 큰 문제가 된다. 예를 들어, 고속도로 노선 결정에 있어서 AI가 제공한 최적의 노선과 주민들이 선호하는 노선이 다를 경우, 그 선택이 편향적이거나 불공정하다고 여겨질 수 있다. 이러한 편향성 문제는 공공 정책에 대한 신뢰를 떨어뜨릴 수 있으며, 정책을 수립하고 집행할 때 신중하게 접근해야 한다.
책임성 및 귀책성 문제
생성형 AI를 활용한 서비스에서 오류나 사고가 발생했을 때 그 책임이 누구에게 있는지 명확히 규명하는 것이 중요하다. 예를 들어, 생성형 AI를 활용하여 제공된 정보에 의존해 공무원이 잘못된 결정을 내렸을 경우 그 책임이 AI 개발자에게 있는지, 사용자인 공무원에게 있는지에 대한 논란이 발생할 수 있다. 또한, AI가 잘못된 정보를 제공하여 발생한 사회적 피해에 대해서는 법적 책임을 어떻게 묻는지에 대한 기준이 필요하다. 이러한 문제는 아직 명확히 해결되지 않았으며, 이에 대한 법적, 윤리적 논의가 계속되고 있다.
가치 창출 측면에서의 이슈
사회적 가치 창출 vs. 윤리적 위험
생성형 AI는 새로운 가치를 창출할 수 있는 가능성이 있지만, 그 활용이 사회적으로 긍정적인 영향을 미치기 위해서는 윤리적 기준을 철저히 준수해야 한다. AI가 제공하는 효율성과 생산성 증대는 분명히 중요한 이점이지만, 그 과정에서 발생할 수 있는 윤리적 위험을 무시해서는 안 된다. 예를 들어, AI가 사회 복지나 시장 생산성 향상에 기여할 수 있지만, 그 과정에서 AI가 창출하는 가치가 사회적 불평등을 심화시킬 수도 있다. 따라서 생성형 AI의 개발과 활용은 인간 중심의 가치와 윤리적 기준을 기반으로 해야 하며, 그 결정과 결과는 항상 인간의 판단과 통제하에 이뤄져야 한다.
규제 및 법적 기준의 필요성
AI 기술의 발전에 따라 새로운 가치 창출을 위한 규제와 법적 기준이 마련되어야 한다. 이는 AI가 사회에서 널리 사용되면서 발생할 수 있는 윤리적, 법적 문제를 예방하고, 기술의 안전한 사용을 보장하기 위한 핵심적인 부분이다. 최근에는 유엔을 비롯한 여러 국제 기구가 AI 기술의 윤리적 위험을 평가하고, 이를 해결하려는 방법을 논의하고 있다. 따라서 각 지역사회와 국가 차원에서도 AI 윤리에 대한 명확한 규범과 정책이 필요하며, 이에 대한 거버넌스 체계가 구축되어야 한다.


생성형 AI 활용의 윤리적 이슈와 지방공공기관의 대응
생성형 AI의 발전은 지방공공기관의 행정 혁신과 주민 서비스 향상을 위한 기회를 제공하지만, 윤리적·법적 문제에 대한 신중한 접근이 필요하다. 이에 대한 대응 방안으로 거버넌스 접근의 연구와 교육, 조직의 윤리적 문화와 실무 가이드라인, 책임과 평가의 세 가지 측면에서 논의할 수 있다.
거버넌스 접근의 연구와 교육
생성형 AI의 윤리적 이슈를 해결하기 위해서는 다학제적 접근 방식이 필수적이다. 기술 개발 과정에서 윤리적 원칙이 반영될 수 있도록 체계적인 교육과정이 마련되어야 하며, 지방공공기관별로 공무원과 주민을 대상으로 한 맞춤형 교육을 실시해야 한다. 특히, 지역사회의 특성을 반영한 초급부터 고급 과정까지의 교육과정을 개발하고, 윤리적 의사결정이 지역사회에 미치는 영향을 고려한 전문가 교육이 필요하다.
조직의 윤리적 문화와 실무 가이드라인 제공
행정안전부는 공공기관에서 AI 활용 시 유의해야 할 가이드라인을 제시하고 있으며, 지방자치단체는 이를 기반으로 개인정보 보호와 정보 유출 방지를 위한 대비책을 마련해야 한다. 또한, 생성형 AI의 투명성과 공정성을 확보하고, 지방공공기관이 이를 적극적으로 활용할 수 있도록 법·제도적 준비를 강화해야 한다. 공무원의 윤리적 리더십이 중요한 역할을 하며, 조직 차원의 명확한 책임과 역할 분배가 필요하다.
책임과 평가
생성형 AI의 알고리즘 투명성을 높이고 신뢰성을 확보하기 위해 표준화된 평가체계가 필요하다. 기술의 윤리적 이슈를 독립적으로 검토할 수 있는 기관을 마련하고, 사용자 보호를 위한 표준과 책임 분담 체계를 수립해야 한다. 이를 통해 공공 부문에서 생성형 AI가 안전하고
효과적으로 활용될 수 있도록 해야 한다.
지방공공기관이 생성형 AI를 활용하면서도 윤리적 이슈를 해결하기 위해서는 신중한 접근이 필요하다. 기술의 발전을 수용하면서도 부작용을 최소화할 수 있도록 윤리적 기준을 마련하고, 주민 중심의 서비스 개발과 교육 지원을 통해 책임 있는 활용이 이뤄져야 한다. 중앙정부와
지방자치단체, 지방공공기관은 협력하여 AI 활용의 윤리적 문제에 대응하고, 지역사회에 적합한 가이드라인을 수립해야 한다. 지방공공기관은 구체적인 접근 방안을 통해 AI 기술을 책임 있게 활용하는 문화를 만들어가야 한다. 이는 단순한 기술적 도약을 넘어 공공의 신뢰를 쌓는
길이다.