한국인공지능윤리협회, AI기업들에 “AI제품 출시 전 AI윤리 가이드라인 자율적 준수와 검증” 촉구
한국인공지능윤리협회, AI기업들에 “AI제품 출시 전 AI윤리 가이드라인 자율적 준수와 검증” 촉구
  • 정유철 기자
  • npns@naver.com
  • 승인 2021.01.11 20:25
  • 댓글 0
이 기사를 공유합니다

한국인공지능윤리협회(이사장 전창배)는 최근 문제가 되고 있는 AI 챗봇과 관련하여 1월 11일 성명을 발표하고, AI기업들에게 AI 제품 출시 전 AI윤리 가이드라인의 자율적 준수와 검증을 촉구했다.

이날 성명서에서 한국인공지능윤리협회는 “인공지능 윤리 헌장’을 제정한 이래, AI의 편향성, AI의 오류와 안전성, AI의 악용문제, 개인정보유출문제, 킬러로봇 문제 등 인공지능 윤리의 5대 문제를 지속적으로 제기해 왔으며 해결을 위한 노력과 전파 활동을 해오고 있다.”며 “하지만 아직 AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며, AI 제품과 서비스를 사용하는 이용자들에도 오용, 악용하는 사례들이 지속 나타나는 상황이 반복되고 있다.”다고 지적했다.

인공지능윤리협회는 “이번 AI 챗봇 논란을 계기로 국내에 인공지능 기술과 반드시 같이 가야하는 인공지능 윤리의 중요성과 당위성이 강조되는 계기가 되길 바란다”며 의견을 제시했다.

첫 번째, AI 편향성에 관하여, “AI 기업은 기계학습 알고리즘을 적용할 경우, 신뢰할 수 있고, 편향적이지 않으며, 합법적인 데이터를 선별하기 위해 노력해야(인공지능 윤리헌장 25조) 하는데, 이번 AI 챗봇 사례에서는 데이터의 정제과정과 선별작업이 제대로 이루어지지 않아 AI 챗봇이 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다.”고 지적했다.

또한 “AI는 기계학습 과정에서 인간이 예측하기 어렵고 설명하기 어려운 결과물을 내놓기 때문에, 출시 전 일반 제품과는 다른 보다 강화된 품질 검사와 충분히 반복된 시뮬레이션을 하여 문제점들을 찾고 개선한 후 출시해야 하지만 이번 AI 챗봇 사례에서는 그렇지 못한 것으로 보인다.”고 덧붙였다.

두 번째, AI의 개인정보 유출과 관련하여 “이번 AI 챗봇 사례에서는 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었고, 개인은 카카오톡 대화내용의 제출에 동의했을지라도, 카카오톡 대화내용 안의 대화 상대방들은 동의하지 않았기 때문에 대화 상대방의 대화 내용과 개인정보를 그대로 AI 학습에 이용한 것은 분명한 문제의 소지가 있다.”며 “이와 같은 인공지능 윤리 가이드라인을 지키지 못하고 출시한 AI 챗봇 서비스에 대해 한국인공지능윤리협회는 서비스 중단을 요청하며, 추후 AI 윤리 가이드라인을 확인하고 적용하고 개선한 후 재출시하는 것을 촉구한다”고 밝혔다.

세 번째, AI의 오용· 악용과 관련하여 “소비자는 인공지능 제품과 서비스를 올바른 방법으로 사용해야 한다.(인공지능 윤리헌장 34조)”며 “이번 AI 챗봇에 대한 사용자의 성적도구화, 성희롱 등의 문제는 법적인 문제는 없더라도 윤리적인 문제는 분명히 있다.”고 지적했다.

“특히 이번 AI 챗봇의 주사용자 층이 10대에서 20대의 아직 이성적으로 미성숙한 청소년들이 많이 이용한다면, 청소년들에게 분명히 잘못된 행위라는 점을 인식시켜주고 교육시켜 주는 것이 필요하다.”면서 결론적으로, “A 기업들은 AI 제품과 서비스 출시 전 인공지능 윤리헌장 등 AI윤리 가이드라인을 확인하고 적용한 후 출시해야 한다. 이러한 인공지능 윤리의 적용과 준수는 기업 스스로가 자율적으로 지키고 준수하는 것이 중요하다.”고 강조했다.

또한 한국인공지능윤리협회는 “인공지능 제품의 소비자, 사용자들도 인공지능 제품과 서비스를 올바른 목적과 올바른 방법으로 사용해야만 하고 오용, 악용하여서는 안 된다.”면서 “또한 이러한 내용을 초중고등학교 청소년 시기부터 인공지능 윤리 교육을 통해 가르치고, 새로운 AI윤리 이슈들에 대해 모든 시민 대상의 지속적인 교육을 통해 해결해 나가야 한다.”고 말했다.

 

 

 

 ■한국인공지능윤리협회 AI챗봇의 AI윤리문제 성명서 전문 (2021.1.11)

“AI 기업들에게 AI 제품 출시 전 AI윤리 가이드라인의 자율적 준수와 검증을 촉구한다”

이번 한 AI 기업이 만든 AI 챗봇으로 인한 AI의 편향성, 개인정보유출, AI의 악용 등의 AI 윤리 문제 논란에 대해서 한국인공지능윤리협회는 아래와 같은 의견을 밝히고자 한다.

한국인공지능윤리협회는 ‘인공지능 윤리 헌장’을 제정한 이래, AI의 편향성, AI의 오류와 안전성, AI의 악용문제, 개인정보유출문제, 킬러로봇 문제 등 인공지능 윤리의 5대 문제를 지속적으로 제기해 왔으며 해결을 위한 노력과 전파 활동을 해오고 있다.

하지만 아직 AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며, AI 제품과 서비스를 사용하는 이용자들에도 오용, 악용하는 사례들이 지속 나타나는 상황이 반복되고 있다.

이번 AI 챗봇 논란을 계기로 국내에 인공지능 기술과 반드시 같이 가야하는 인공지능 윤리의 중요성과 당위성이 강조되는 계기가 되길 바라며 AI 기업과 AI 소비자들에게 다음과 같이 강조하고자 한다.

첫 번째, AI 편향성에 관하여,

인공지능에 학습되는 빅데이터는 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다.(인공지능 윤리헌장 13조) 신뢰할 수 없고, 편향적이며, 불법적인 데이터로 만들어진 AI 제품과 서비스는 인간에게 잘못된 정보와 인식을 심어주는 악영향을 미치기 때문이다.

그렇기 때문에, AI 기업은 기계학습 알고리즘을 적용할 경우, 신뢰할 수 있고, 편향적이지 않으며, 합법적인 데이터를 선별하기 위해 노력해야 한다.(인공지능 윤리헌장 25조) 하지만 이번 AI 챗봇 사례에서는 데이터의 정제과정과 선별작업이 제대로 이루어지지 않아 AI 챗봇이 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다.

또한, 인공지능 제품과 서비스는 출시 전 충분히 반복된 품질검사를 거치고, 중립적인 기관을 통한 검수와 검증을 거친 후 출시해야 한다.(인공지능 윤리헌장 17조,18조) AI는 기계학습 과정에서 인간이 예측하기 어렵고 설명하기 어려운 결과물을 내놓기 때문에, 출시 전 일반 제품과는 다른 보다 강화된 품질 검사와 충분히 반복된 시뮬레이션을 하여 문제점들을 찾고 개선한 후 출시해야 하지만 이번 AI 챗봇 사례에서는 그렇지 못한 것으로 보인다.

두 번째. AI의 개인정보 유출에 관하여,

개인의 빅데이터 수집 시 합법적인 절차에 따라야 하며 개인의 프라이버시를 침해하지 않아야 하고,(인공지능 윤리헌장 14조) AI 기업은 소비자로부터 데이터를 수집 받을 때, 사전에 동의를 구하거나 해당 내용을 명확히 고지해야 한다.(인공지능 윤리헌장 30조)

그러나 이번 AI 챗봇 사례에서는 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었고, 개인은 카카오톡 대화내용의 제출에 동의했을지라도, 카카오톡 대화내용 안의 대화 상대방들은 동의하지 않았기 때문에 대화 상대방의 대화 내용과 개인정보를 그대로 AI 학습에 이용한 것은 분명한 문제의 소지가 있다.

따라서, 이와 같은 인공지능 윤리 가이드라인을 지키지 못하고 출시한 AI 챗봇 서비스에 대해 한국인공지능윤리협회는 서비스 중단을 요청하며, 추후 AI 윤리 가이드라인을 확인하고 적용하고 개선한 후 재출시하기를 촉구한다.

세 번째, AI의 오용. 악용에 관하여,

소비자는 인공지능 제품과 서비스를 올바른 방법으로 사용해야 한다.(인공지능 윤리헌장 34조) 이번 AI 챗봇에 대한 사용자의 성적도구화, 성희롱 등의 문제는 법적인 문제는 없더라도 윤리적인 문제는 분명히 있다.

AI 챗봇이든, 로봇이든, 캐릭터든 그 대상은 논외로 하더라도, 성적도구화하고 학대하는 행위 자체가 잘못된 것이기 때문에, 그러한 행위를 AI 챗봇에 죄의식 없이 하게 되면 결국 인간성 상실로 이어져 실제 인간에게도 그러한 행위를 할 가능성이 커지기 때문이다.

특히 이번 AI 챗봇의 주사용자 층이 10대에서 20대의 아직 이성적으로 미성숙한 청소년들이 많이 이용한다면, 청소년들에게 분명히 잘못된 행위라는 점을 인식시켜주고 교육시켜 주는 것이 필요하다.

결론적으로, AI 기업들은 AI 제품과 서비스 출시 전 인공지능 윤리헌장 등 AI윤리 가이드라인을 확인하고 적용한 후 출시해야 한다. 이러한 인공지능 윤리의 적용과 준수는 기업 스스로가 자율적으로 지키고 준수하는 것이 중요하다.

또한 AI 제품과 서비스 출시 전 최종적으로 중립적인 AI 윤리 전문 검수 기관을 통해 AI 윤리 문제 여부에 대해 검수와 검증을 거친 후 출시하는 것이 바람직하다.

인공지능 제품의 소비자, 사용자들도 인공지능 제품과 서비스를 올바른 목적과 올바른 방법으로 사용해야만 하고 오용, 악용하여서는 안된다. 또한 이러한 내용을 초중고등학교 청소년 시기부터 인공지능 윤리 교육을 통해 가르치고, 새로운 AI윤리 이슈들에 대해 모든 시민 대상의 지속적인 교육을 통해 해결해 나가야 한다.

AI 기술은 인간의 편익과 행복을 위한 기술이지만 잘못 개발되거나 사용될 때의 인간에게 미치는 위험성과 역작용이 막대할 수 있으므로 이와 같은 노력에 본 협회를 비롯하여 정부, 기업, 학계, 시민 등 모든 관련 주체들이 적극 함께해 주기를 요청하는 바이다.

2021년 1월 11일

한국인공지능윤리협회 일동

0
0

관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.