[AI 이후의 세계] ″우리는 AI에게 어디까지 의사결정권을 넘길 수 있는가?″
본문 바로가기
경영.경제.정책

[AI 이후의 세계] ″우리는 AI에게 어디까지 의사결정권을 넘길 수 있는가?″

by 빡스킴 2023. 7. 24.
728x90
여름휴가철이 다가오고 있습니다. 재충전의 시기, 어떤 계획을 세우고 계신지요?
세종대왕은 재능 있는 신하들이 일에 쫓겨 책을 읽지 못하자 오로지 책을 읽기 위한 '독서 휴가' 제도를 만들었다고 합니다. 그 어느 때보다도 무더운 올여름, '독서 휴가'를 즐기는 것은 어떨지요?
가볍게 읽어볼 수 있는 책 을 소개합니다.

 

 

AI 이후의 세계 - YES24

챗GPT 너머에 찾아올 본격 인공지능 시대, 인류의 미래는?키신저(미국 전 국무장관) × 슈밋(구글 전 CEO) × 허튼로커(MIT 학장)정치, 경제, 과학의 세 거인의 날카로운 통찰 《월스트리트 저널》 베

www.yes24.com

 

[AI 이후의 세계] "우리는 AI에게 어디까지 의사결정권을 넘길 수 있는가?"

 


○ 인간 이성이 세계를 이해하는 유일한 도구였던 시대는 이미 지났다
 
- 활자책의 발명, 종교개혁, 계몽주의 사상의 발전과 함께 인간은 신앙과 미신 대신 스스로의 이성을 도구로 삼아, 감각과 배움을 통해 현실 세계를 이해하고 인지해 왔음
 
- 그러나 AI의 등장과 함께 현실의 범위는 다시금 확장되면서, 인류는 세계를 인식하는 사고의 전환을 겪게 됨. AI가 인간이 풀 수 없는 난제에 빠르게 답안을 내놓을 뿐만 아니라, 인간이 그 풀이 방식을 더 이상 설명조차 하기 어려운 상황이 발생
 
• 일례로, '20년 MIT 연구진은 머신 러닝 기법으로 7,000개의 화합물 중 단 하나의 유효 조합을 발견, 슈퍼항생물질 '할리신'을 개발. 그러나 AI 학습 알고리즘 개발진 등 그 누구도 AI가 어떤 사고 과정을 거쳐 해당 조합을 발견했는지 규명할 수 없었음
 

728x90


○ AI가 해답을 찾는 과정을 이해할 수 없다면, 인간은 AI의 답안을 얼마나 신뢰할 수 있는가?
 
- 인류는 점차 많은 질문을 AI에게 던질 것임. 의사결정권의 일부를 AI에게 넘기기도 할 것임. 이미 상당 부분 AI에게 의사결정권을 넘기기도 하였는데, 대표적으로 인사 채용, 물류에서 AI 활용도는 점차 넓어지고 있음
 
- 그런데, AI가 인간이 이해할 수 없는 방식으로 최적의 답안을 내놓는다면, 인간이 AI에게 어디까지 결정권을 주어야 하는가라는 의문도 생김
 

• 인사 담당 AI가 채용, 승진심사에서 특정인의 당락을 결정하였다면, 이를 받아들일 것인가? 그 근거를 지원자에게 어떻게 설명할 것인가?
 
• 안보 전문 AI가 당장 적국을 타격하라고 제안한다면, 장군이나 대통령은 따라야 할까?
 
• AI에게 국가의 경제 정책, 기업의 투자 결정, 아동용 교육 콘텐츠 개발을 맡길 수 있을까?
 
○ AI가 인류에 끼치는 영향 중에서도 가장 우려되는 분야는 '지정학'으로 특히, 저자들은 'AI 사이버 무기'의 위험을 우려
 
- 저자들은 "AI 사이버 무기는 범용성, 확산성, 잠재적 파괴력을 모두 갖춰 핵무기보다 훨씬 위험하고 제어하기 어렵다"라고 지적
 
• AI 사이버 무기는 일개 가정의 PC에서도 운용 가능하여, 실물 무기가 부족한 약소국이라도 AI를 이용해 위협적인 수준의 공격력을 갖출 수 있음
 
• 음지에서 개발되기에 각국의 사이버 전력 규모를 정확히 파악하기 어렵고, 개발을 막는 국제 협약의 억지력이 미미하며, 방어보다는 선제 타격으로 이어질 위험도 높음
 
• AI 전술은 개발하고 사용하는 쪽에서도 원리를 이해할 수 없고, 심지어 공격 목표물과 규모 결정, 실행까지 인간이 개입하지 않는 자율살상무기가 등장할 수 있음
 
- 따라서, 저자들은 가능한 한 빨리 전 세계가 AI 무기 개발 및 사용 제한에 합의해야 한다고 강조. 다른 어느 부문보다 군사 부문에서 강력한 제한을 두고, AI의 학습 능력과 '목표물 설정' 능력을 제어하지 않으면 '억지가 불가능한 파괴적 무기'의 등장을 목도할 수도 있다고 경고
 
○ 예고 없이 일상의 다양한 측면을 불쑥 파고들어 온 AI, 인류는 인간의 위상과 역할을 먼저 정립해야 할 것
 
- 저자들은 AI로 인해 현실을 파악하는 인간의 이성은 더 확장되면서도, 더 위축될 것이라고 경고. AI는 인류가 현실을 더 빨리, 더 정확히 포착하도록 도울 수 있으나, AI가 이용자의 기호에 맞게 정보를 재가공하면서 더 왜곡되고 편향적인 시각을 형성할 수도 있기 때문
 
- 따라서, 도덕성도, 자유의 지도, 인과도 성립하지 않는 AI의 사고 과정을 인류의 미래 설계에 이용하기 위해 인간은 도덕성, 자유의지, 인과관계에 대한 더 중대하고 많은 질문에 답해야 할 것임
 
- 저자들은 무엇보다도 다자간 의견 교환에 바탕을 둔 글로벌 'AI 윤리'를 수립, 그 운용 과정을 더 면밀히 주시해야 한다고 지적
 
○ 저자 소개: 헨리 키신저, 에릭 슈밋, 대니얼 허튼 로커
 
- 헨리 키신저는 美 제56대 국무장관으로, 닉슨과 포드 행정부에서 국가안보 담당 보좌관을 역임하며 미-소 '전략무기 제한협정' 체결 등 냉전 체제 하의 대립 완화를 이끌었다. 1973년 노벨 평화상을 수상
 
- 에릭 슈밋은 구글의 전 CEO로, 2001년 아직 실리콘밸리 스타트업에 불과했던 구글에 합류, 2011년까지 최고경영자로서 구글의 전성기를 이끈 인물. CEO 사임 이후 구글의 기술 고문을 역임
 
- 대니얼 허튼 로커는 MIT 슈워츠먼컴퓨팅대학의 초대 학장으로, 코넬대 디지털 기술 대학원 '코넬테크'의 설립을 주도하고 초대 학장과 교무처장을 지냈다. 코넬대 컴퓨터공학부 교수, 제록스 팰로앨토연구소(PARC) 연구원 및 관리자, 핀테크 스타트업 CTO로도 역임
 
 

 

 

포인트빡스

경영.경제.정책 콘텐츠

pointbbox.com

 

728x90