ISO국제표준과 경영시스템

AI 기반 기술의 도입으로 인한 윤리적 문제

후니마니 2025. 10. 9. 20:19
반응형

 

AI 기술의 도입은 이제 방향의 제시가 아닌 실제가 되었다. 보고서 쓰기, 동영상 만들기, 작업장 안전 관리 예측시스템 등 아주 다양한 분야 아니 우리가 생활화는 모든 공간과 시간에서 적용되고 활용이 되고 있다. AI 기술은 이제 낯선 영역이 아닌 우리 생활의 실제 영역이 되었다.

활발한 AI 기술 도입의 이면에는 어떠한 문제점들이 발생하지 않을까 하는 생각이 문득 들게 된다. 편안함과 간편함에 가려진 단점들이 있지 않을까 하는 문제 제기에서 글을 작성해 본다. 파고들면 제시할 수 있는 위험과 문제는 아주 많을 것이다. 이번에는 AI 기술 도입으로 인한 윤리적 문제와 ISO 경영시스템에서 AI 기술 도입으로 발생할 수 있는 문제를 적어보고자 한다. 깊이 있게 다루기에는 양이 너무 방대하고 전문적인 지식 또한 충분히 필요하기에 우리는 대략적인 부분만을 열거해 보겠다.

AI는 학습된 데이터를 기반으로 작동하는 원칙을 가지고 있다. 때문에 데이터에 내재된 불공정하고 부정확한 데이터를 가지고 결정을 내릴 수 있는 위험을 가지고 있다. AI 기반의 기술은 혁신적인 발전을 이룰 수 있지만 기술 자체의 특성과 데이터의 한계로 인해 공정성, 투명성에 관련된 윤리적 문제를 발생시킬 소지가 충분하다.

 

AI 기술의 도입으로 인한 문제 발생 부분을 세분화해서 나열해 보자.

 

  1. 편향성 및 차별에 대한 문제

사회적 편견이나 역사적 차별이 그대로 알고리즘에 반영이 되어 불공정하고 명확하지 않은 결과물을 생성한다. 예를 들어 역사적 사실에 대한 결과물 보고서를 작성 시 특정 국가의 편향된 데이터만을 가지고 결과물을 생성한다면 하나의 역사적 사실이 특정 국가에 편향적인 사실로 둔갑할 수 있다.

 

2. 개인 정보 보호 및 사생활 침해

AI 시스템은 고도로 개안화된 서비스를 제공하기 위해 방대한 데이터를 수집, 분석하는데 이 과정에서 개인의 사생활이 침해되거나 정보가 오용될 수 있다. 예를 들어 얼굴 인식 시스템의 경우 대규모 감시 시스템으로 발전될 수 있다.

 

3. 투명성 부족 및 설명 불가능한 결과

많은 AI 모델 특히 딥러닝 모델은 의사결정의 과정이 복잡하여 개발자도 왜? 이런 결론에 도달했는지 명확하게 설명이 불가하다. 결론의 과정을 개발자도 알 수가 없는 것이다. 이는 의사결정 결론에 대한 투명성이 부족한 결과를 낳기도 한다.

 

4. 책임 소재의 불분명

AI가 자율적으로 내린 결정이나 오류로 인한 사고에 대해 법적, 도덕적 책임을 누가 지을지 경계가 모호하다. 이야기 댓글에서 본 얘기인데 자율주행 자동차가 운행 중 AI 기반 기술의 오류로 인해 사고가 발생했을 시 누구에게 책임의 소재가 있는지 명확하지 못한 제시 글을 본 적이 있다. 이는 AI 기술의 발전 속도에 우리 법적 규제적 상황이 따라가지 못하는 상황으로 파악될 수 있다.

 

5. 신뢰 저하 및 사회적 혼란

생성형 AI 기술의 발전으로 진짜와 가짜를 구별하기 힘든 딥페이크 등을 통해 허위정보나 악의적인 콘테츠가 대량 확산되어 사회적 혼란을 가중 시킨다. 이 부분은 현재 한국 사회의 현실에 아주 중요한 문제인 거 같다. 딥페이크 영상을 허위 정보로 제작하여 실제 상황인 듯 조회수를 올리기 위한 거짓 정보 가짜 뉴스들의 문제성이 심각한 현실이다.

 

AI 기반 기술의 도입으로 발생하는 투명성, 책임감, 사회적 혼란 등의 윤리적 문제는 우리가 반드시 인식해야 하는 문제이며 건강한 AI 기술 활용에 고려해야 하는 부분이 되겠다. 자발적 검증과 규제적 장치가 빠른 시일 내에 구축이 되어야 할 필요성을 느낀다.

 

AI 기술의 도입으로 발생할 수 있는 문제는 ISO 경영시스템에서도 존재한다. 이 부분도 세부적으로 나누어 살펴보자.

 

  1. 시스템 구조 및 기술적 문제
  • 데이터 품질 및 편향

AI 도입의 성공과 실패는 데이터에 있지만 기존 경영 시스템의 데이터가 부족하거나 부적합한 경우 특정 조건이나 그룹에 편향된 데이터의 활용이 되어 왜곡된 결과가 나올 수 있는 위험이 있다.

  • 레거시 시스템과의 통합

AI 모델과 기존의 IT 시스템 간의 데이터 연동, 호환 문제로 인한 시스템 통합이 어렵거나 과다 비용이 발생할 가능성이 있다.

  • 블랙박스 문제

AI 의사결정 과정이 불투명하여 결과의 근거성이 떨어질 수 있다. 예를 들어 ISO 경영 시스템 표준은 요구사항에 명확한 증거 기반 시스템을 가지고 있는데 AI 결정이 명확한 근거를 제시하지 못한다면 그 결정에 대한 근거를 사용하지 못할 수 있다.

  • 운영 및 유지 보수에 대한 복잡성과 비용

AI 기반의 모니터링 시스템, 데이터 학습 및 업데이트가 주기적으로 필요하며 시스템 관리에 전문 인력이 필요한 경우가 많다. 이는 관리의 복잡성과 유지 관리의 비용 증가의 부담으로 다가올 수 있다.

 

2. 인력 및 문화적 문제

  • 노동자의 저항

AI 기술 도입으로 일자리 감소와 업무 방식의 변환에 대한 두려움을 유발하고 노동자들에게 시스템 도입에 대한 거부감과 협조 불가 등의 불협화음을 만들 수 있다. 예를 들어 ISO 45001 안전 보건 경영시스템의 경우 핵심인 노동자의 참여와 협력이 있는데 AI 기술의 도입으로 참여와 협력이 효율적으로 이루어지지 않을 위험을 가지고 있다.

 

  • 역량 부족 및 교육

AI 시스템 개발, 운영, 관리 등과 그 결과를 해석하고 적용하는 전문 인력의 부족이나 역량의 미비함으로 조직의 모든 구성원이 완벽하게 적응하는 게 현실적으로 어렵다.

 

  • 책임감의 약화

조직이 스스로 판단하는 대신 AI 시스템의 결정을 과도하게 의존하게 되는 경우 최종적인 안건과 책임의식이 결여되는 상황이 발생할 수 있다.

 

AI 기반 기술의 도입으로 인해 발생할 수 있는 다양한 문제들과 경영시스템에서 발생할 수 있는 문제에 대해 간략하게 살펴보았다. 이제는 본격적인 도입이 시작되고 있는 단계라 볼 수 있다. 새로운 적용은 초기에 많은 부작용과 문제를 발생시킬 수 있다. 하지만 이러한 문제를 얼마나 시기적절하고 긍정적 발전 방향으로 적용하는지는 활용하는 우리의 AI 기반 기술에 대한 인식에 달려 있다. 편안함과 혁신을 추구하지만 그에 따른 윤리성과 책임감은 반드시 고려하여야 한다.

 

반응형