- 기본 카테고리

노네임101
- 작성일
- 2025.2.16
도덕적인 AI
- 글쓴이
- 빈센트 코니처 외 2명
김영사
▶계기
요즘, 시시각각 발전하는 AI기술로
그 내용을 따라가기에 너무 바쁩니다.
이 책을 읽는 도중에
’딥시크R1’이 오픈소스로 공개되었고
사용자의 정보를 과하게 수집한다는 염려로
국가별 접속을 차단하는 일이 있었습니다.
또한 오픈AI는 ‘딥리서치‘를 공개했는데
박사급의 깊이있는 답변을 제공하여
‘AI에이전트’로써 전문가사람을
대체할 가능성을 보여주었습니다.
그러나 AI는 단시간에 우리의 일상을
크게 변화시키고 있습니다.
저 역시 인생에 생길 변화가 두렵습니다.
그래서 어떠한 도덕적, 윤리적 염려가 있고
저자들의 제시한 방향이 무엇일까
궁금해서 책을 집어 들었습니다.
▶추천의 이유
저자들은 철학자, 데이터과학자, 컴퓨터과학자로서
다른 분야의 3인의 전문가입니다.
직접적인 해결책보다는
우리가 가야하는 큰 방향을
제시해 준다는데 의의가 있습니다.
내용이 어렵지 않으니
AI시스템 관련 종사자, 이용자, 투자자들이
읽어볼 만 한 책입니다.
개인적으로 7장은 AI뿐아니라
나의 직무의 사회적윤리와 직업적윤리를
다시한번 돌아보게해서 도움이 되었습니다.
일반인인 저의 눈에는
각 분야에서 AI를 적용시 발견되는문제점,
AI산업의 개발환경의 문제점들을
현실적으로 제기했고
차근차근 쉽게 설명하여
철학적 윤리적으로
잘 훑었다는 인상을 받았습니다.
▶1장
저자들은 우선 AI에 대한
개괄적인 설명을 합니다.
먼저 정의를 내립니다.
윤리적,도덕적 문제는
AI의 범위, 기술심화도 등과 무관하게 발생하기에
이 책에서는 포괄적인 정의를 사용합니다.
[인간이 규정한 일련의 목표에 대해서
충분히 신뢰할 만하게
예측과 추천 및 결정을 수행하여
실제 또는 가상 환경에
영향을 미치는 기계 기반 시스템]
그리고 현시점에서
AI의 종류, 학습방법 및 한계점 등을 이야기합니다.
여기서 중요한 점은 우리가
AI의 작동(추론)방식을 해석하는 것이
점점 힘들어지고 있어서,
AI가 실수를 해도 그 원인을 파악하지 못하게 되어
향후 유사한 실수를 예방하기 어렵다는 점,
따라서 AI가 하지 못하는 일을 알아내는 것이
어려워지고 있다는 점을 언급합니다.
마지막으로 AI시스템의 개발과정 3단계를 이야기합니다.
(1) 알고리즘 생성 by 수학자
(2) 모형훈련 by 엔지니어
(3) 제품화 by 기업
▶2-5장
저자들은 본격적으로 AI가 갖는 아래의 문제점을 제기합니다.
(1) 안전한가
안전문제유형을 아래의 9가지로 분류하고
AI의 실수,
인간이 AI를 지나치게 신뢰,
인간의 주의분산,
인간의 실수,
인간의 탈숙련화,
해악편향,
유해한 집단의 영향력 강화,
새로운 유형의 해악,
AI-AI상호작용
각 분야별로 문제유형별 케이스를 열거합니다.
작년에 건강검진 받은
경험이 떠올랐습니다.
백내장소견(AI의실수)으로 나와서
건진후 안과를 찾았는데
의사쌤 말씀이 건진시 영상판독을 AI가 해서
안구촬영시 간혹 빛이 들어가면
정상도 백내장위험군으로 오인한다고 하네요.
웃고 넘어간 에피소드였지만
이 책을 읽고 나니
‘만약 기술발전으로
AI가 실수했는데
인간의 탈숙련화 가 이루어져
의사가 발견도 못한다면???‘
을 상상하니 끔찍하네요.
(2) 프라이버시를 존중하는가
책은 다양한 AI의 프라이버시 침해형태와
방지책의 무용함을 이야기합니다.
가장 문제는
어떤 일이 프라이버시 침해라는 걸 알면서도
다른 필요나 의무와 상충되는 상황에 직면하면
그것이 삶에서 더 중요하기에
프라이버시를 포기하는 경우입니다. 또한
데이터통제력을 앗아가는 힘이 강해서
프라이버시 보호의 노력이 보잘것 없다고
생각하는 경우라고 합니다.
(3) 공정할 수 있을까
편향된 사회를 학습한 AI는
더 편항된 결과를 출력할 수 밖에 없기에
완벽하게 공정한 AI시스템은
불가능하다고 이야기합니다.
게다가 ’공정’이라는 개념조차도
수학적으로 정량화하고자 한다면
보는 관점에 따라 다른 공정성의 기준이
서로 상충하는 문제가 발생한다고합니다.
하지만 저자들은 AI가 나오면서
인간이 하는 의사결정의
부정의를 더 알게 되었고
이를 개선하기 위한 움직임이 있는 상황에서
인간의 편향을 개선할수 있는 잠재력을 기대합니다.
(4) 책임을 물을수 있을까
만약에 AI 사용으로 인해 문제가 발생할 경우
AI자체, AI제작자, AI사용자
누구에게 책임을 물어야하는지
문제를 제기하며
‘책임공백’의 가능성을 염려합니다.
혁신을 업악하지 않되,
불가능한 피해를 최소화하는
미지근한 책임준칙의 필요성을 제기합니다.
▶ 6,7장 및 결론
인간의 도덕성을 탑재할 수 있을까
중요한 도덕적인 판단을 해야하는데
우리의 상황이 올바른 판단을 내리기 힘든
평화롭지 못한 상황이라면,
인간의 도덕성을 학습한 AI에게
도움을 받을수 있는지에 대한
방법을 고찰합니다.
최종결정권을 AI에게 넘기자는 것이아닌
의사결정의 보조 자료로
흔한 우리의 오류인 (무지, 혼동, 편향)을
교정해주는 AI를 개발하여
도덕적가치에 더 부합하는
인공적으로 개선된 민주주의(AID)를
추구해야 한다고 합니다.
물론 이런 시스템의 개발은
어렵고 힘든 길이겠지만요.
우리는 무엇을 할 수 있을까
AI는 시스템안에서 작동하지만
이것의 제작과 기능은 사회속에서 이루어지므로
저자들은 AI를 대하는 우리의 자세를 이야기합니다.
AI제작환경에서 의사소통의 제한,
빠른 도전과 빠른 실패를 권장하는 업계관행,
윤리적측면 고려 보류 문화와 윤리 지표의 부재,
담당자들의 윤리적 의사결정에 대한 무지함
등이 현재 만연되어 있다고 이야기 합니다.
따라서 우리의 태도 개선이 필요한데
도덕적인 AI기술도구 확장
도적적인 AI구현 영향력 높이는 관행 전파
도덕적 시스템 사고의 교육기회 제공
제품에 대한 시민참여 유도
애자일 공공정책 전개
등의 방법론을 제시합니다.
정확한 답의 제시는 아닙니다.
개발이 진행중인 AI 와
성숙중인 관련산업을 대할때
어떻게해야 기존 사회의 패러다임과
마찰을 줄이고 잘 나아가냐입니다.
기술개발을 쫒아가기 바쁘고
그와 관련된 투자만을
생각했던 저에게
다른 물음을 던져주는 책이었습니다.
본 글은 김영사의 도서지원을 받아 작성되었습니다.
- 좋아요
- 6
- 댓글
- 0
- 작성일
- 2023.04.26
댓글 0
댓글이 없습니다.
첫 번째 댓글을 남겨보세요.