Ce diaporama a bien été signalé.
Nous utilisons votre profil LinkedIn et vos données d’activité pour vous proposer des publicités personnalisées et pertinentes. Vous pouvez changer vos préférences de publicités à tout moment.

AI와 데이터의 윤리_181110

920 vues

Publié le

문윤성 SF워크샵에서 발표한 내용의 슬라이드를 공유합니다.
(자료는 일부 outdated된 것들이 있고 이에 대해서는 발표 시에는 설명하였으나 따로 자료에 달지는 않았으니 감안하고 보시면 됩니다)

Publié dans : Données & analyses
  • Identifiez-vous pour voir les commentaires

AI와 데이터의 윤리_181110

  1. 1. AI와 데이터의 윤리 권정민 (cojette@gmail.com)
  2. 2. 인공지능 (AI, Artificial Intelligence) 기계로부터 만들어진 지능(인간 및 동물의 자연 지능과 반대되는 말). 컴퓨터 공학에서 이상적인 지능을 갖춘 존재, 혹은 시스템에 의해 만들어진 지능 (Reference: Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. )
  3. 3. Speaker, Robot Machine Learning 사용자 간접 인터페이스 음성, 행동 인지 인터페이스 복잡한 능력 처리 개인화 및 추론 능력 소프트웨어 인공지능 시스템 직접 인터페이스 음성, 행동 인지 감각적 정보 전달
  4. 4. 머신 러닝 알고리즘 ● 문제를 풀기 위한 논리 연산 ● 종류에 상관없이 가치 중립적 ● 훈련 데이터의 레이블링과 평가 피드백에 따라 전체 결과가 달라짐
  5. 5. Vestibulum congue Vestibulum congue 디자인 알고리즘 데이터 AI서비스 알고리즘
  6. 6. 데이터 “ Data is new oil in AI age ”
  7. 7. AI를 위한 원시 수프 Data
  8. 8. 데이터 살펴보기 Data Sources ● 서비스 데이터 ○ 거래 내역 (구매, 이벤트 참여 등) ○ 로그 (서비스 내에서의 움직임) ○ 회원 정보 ○ 서비스 아이템 및 운영 정보 (판매 물품, 금융 상품 등) ● 공개 데이터 ○ 인터넷의 동영상 ○ 인터넷의 텍스트 ○ 샘플 데이터
  9. 9. 구글 인물 소개 알고리즘 : 정제되지 않은 데이터의 활용
  10. 10. Tay- MS의 트위터봇: 기존 데이터의 편향성
  11. 11. FaceID 등의 얼굴 인식 프로그램: 기존 데이터의 편향성
  12. 12. Amazon의 채용 AI: 그때는 맞지만 지금은 틀리다
  13. 13. 데이터 측면의 발생 가능 문제점 ● 서비스 데이터 ○ 가치중립적 ○ 서비스의 성격에 따라 비윤리적인 데이터 저장, 활용 가능 ○ 서비스 사용자에 대한 개인정보의 침해과 사용자 편의성, 접근 권한의 문제가 충돌 ■ 데이터의 추상화/익명화 정도에 대한 논의 필요 (활용/관리 대비 개인 정보 침해의 문제) ○ 특정 데이터의 독점으로 인한 문제 발생 가능 ● 공개 데이터 ○ 윤리적, 사회적 가치와 맞지 않는 데이터 존재 가능 ○ 사전 검열, 데이터 변경 등의 문제와 충돌 ○ 데이터 편향성을 조율하기 어려움
  14. 14. 서비스 디자인 “ 기존에 사람이 하던 일을 대체하는 방향으로, 사람들에게 거부감없이 ”
  15. 15. 성인 동영상 얼굴 합성: 차별적/위법 서비스
  16. 16. AI 스피커 비서의 성별 : 고정된 성 역할, 차별 반영(그림 reference: http://www.dailymail.co.uk/sciencetech/article-4258122/Experts-reveal-voice-assistants-female-voices.html)
  17. 17. Tell the audience what you expect to happen... VR 비서 Vivi : 고정된/악용되는 성 역할
  18. 18. 그 외 오용 가능 사례 ● 인권 침해: 위양성으로 발생할 수 있는 위험 사례 ○ 데이터를 통한 감시 ○ 예측 치안 관리 활동(Predictive Policing): ‘마이너리티 리포트'와 같은 범죄 예측 시스템을 통한 예상 범죄자 지정 및 감시 ● 차별적/위법적 서비스 디자인 ○ 섹서로이드 ○ 불법 게임/서비스 봇 ○ 데이팅 앱의 가짜 여성(사기용 봇)
  19. 19. 사회에서의 AI 인지 “ ‘인간보다 더 인간답게’, 그것이 우리의 좌우명이라네. ”
  20. 20. 물리적 존재 여부 ● 마빈과 할은 사회에서 같은 존재로 인식될 수 있을까? ● 자율주행차와 마빈의 존재는 어떤 식으로 구분할 수 있을까? ● 이런 구분에 대해 어떤 전제조건이 필요할까?
  21. 21. AI 오류의 책임 사용자 소 유 자 설 계 자 AI 생산자
  22. 22. 로봇법 프로젝트 ● 인간권을 침해하지 않고 인간 향상 기술과 접목할 수 있는 방향으로의 로봇 지향 ● 자율 주행 자동차, 수술 로봇, 인공 기관, 돌봄 로봇 (물리적으로 존재하고 많이 사용되는 형태)에 대해서만 정의 ○ 로봇의 범위가 광범위해서 포괄적 정의가 어려움 ● 구체적이고 투명한 법적 규제 필요성 ○ 건강‧안전‧소비자‧환경, 법적 책임, 지적재산권, 프라이버시와 데이터 보호, 계약주체로서의 법적 거래 능력(로봇의 법적 인격 부여 문제) ○ AI의 창발적 특성으로 인한 로봇의 잠재적 위험에 대한 규제와 혁신 진흥의 목표를 모두 추구 ● 법 이상의 기술적 규제 및 가치 중심 디자인 지향

×