(1)인공지능 스피커 추천 상품은 믿을 만할까?
(2)인공지능이 범인이라면 처벌은 어떻게 할까?
(3)자율주행자동차 사고 나면 누구 책임일까?
(4)드론을 이용한 범죄는 누가 처벌받을까?
(5)배달앱 음식 위생문제, 배상 책임은 누가?
영국에 본사를 둔 전문 기술 컨설팅 기업인 캠브리지 컨설턴트
예술 분야만이 아니다. 의료계에선 인공지능 의사가 환자를 수술하고, 법조계에선 인공지능 변호사가 계약서를 작성한다. 로봇 외과의사로 불리는 최첨단 로봇수술기 ‘다빈치
IBM은 자사 인공지능인 왓슨을 기반으로 2016년 ‘로스
2018년 2월에는 국내 한 대형 로펌에 ‘유렉스
사람처럼 생각하는 움직이는 인공지능 로봇
인공지능이 사람의 머리에 해당한다면 로봇은 사람의 신체라고 할 수 있다. 인공지능 기술 개발이 치열한 만큼이나 사람에 가까운 로봇을 개발하기 위한 노력도 한창이다. 독일 로봇 제조업체인 쿠카 로보틱스
대만 스타트업 에오러스는 2018년 1월 열린 세계 최대 가전 전시회 ‘CES
미국의 대표적인 로봇 제조업체인 보스턴 다이내믹스
로봇은 크게 세 가지로 분류된다. 완성차 조립이나 물류에 활용되는 산업용 로봇, 변호사나 의사 등 전문직을 대신하는 전문 서비스 로봇, 집사 로봇처럼 집안의 가사노동을 대신하는 개인 서비스 로봇이 그것이다. 현재로선 산업용 로봇이 전체 시장의 60퍼센트 이상을 차지하고 있지만, 앞으로 로봇이 대중화되면 전문 서비스 로봇과 개인 서비스 로봇이 빠른 속도로 늘어날 것이다. 향후 10년 안에 ‘1가정 1로봇’ 시대가 올 것이라는 전망도 나오고 있다.
여기서 우리는 한 가지 걱정과 마주하게 된다. 로봇 기술이 더욱 정교해져서 사람처럼 움직이고, 인공지능 기술이 더욱 진화해 사람처럼 생각하게 되면 마치 SF 영화처럼 인공지능 로봇이 사람을 지배하는 날이 오지 않을까? 세계적인 미래학자 레이 커즈와일은 2005년 저서 <특이점이 온다>에서 “2029년에는 인간 수준의 지능을 갖춘 컴퓨터가 등장할 것이고, 2045년에는 기계가 인류를 넘어서는 순간, 즉 ‘특이점’이 올 것
특이점
이 예측에 따른다면 인공지능 로봇이 사람을 지배하는 것은 결코 헛된 망상이 아니다. 그래서 각국 정부와 IT 기업들은 ‘착한 인공지능’ 개발을 위한 규정 마련에 나서고 있다. 2017년 1월 우주 물리학자 스티븐 호킹 박사와 알파고를 개발한 데미스 허사비스, 테슬라 최고경영자 일론 머스크 등은 ‘아실로마 인공지능 원칙
마이크로소프트는 2017년 7월 자사의 인공지능 연구 인력을 대상으로 ‘인공지능 디자인 원칙’과
앞서 2016년에는 구글과 페이스북, 아마존, IBM 등 글로벌 IT 기업들이 ‘파트너십 온 인공지능
카카오도 국내 기업 최초로 2018년 1월 ‘알고리즘 윤리 헌장’을 발표했다. 카카오는 “전 세계적으로 인공지능 패러다임이 급부상하면서 기대와 우려가 공존하는 시점에서 인공지능 개발과 운영에 관한 원칙과 철학을 가지는 것은 인공지능 선도기업의 사회적 책무
인류와 인공지능 로봇이 공생하는 새로운 미래
하지만 이러한 노력에도 불구하고 인공지능이 가져올 변화에 대한 두려움은 갈수록 커지고 있다. 가장 큰 두려움은 인공지능에 의한 범죄다. 인공지능도 넓게 보면 컴퓨터 프로그램이므로 얼마든지 해킹이 가능하다. 만약 범죄 집단에 인공지능 기술이 넘어갈 경우 해당 인공지능이 적용된 제품이나 서비스를 이용하는 사람들의 피해가 상당할 것이다. 인공지능 개발자가 의도적으로 인공지능을 범죄에 악용할 수도 있다. 또한 만약 특이점이 도래한다면 인공지능 스스로 범죄를 일으킬 가능성도 배제할 수 없다.
그렇다면 인공지능에 의한 범죄가 발생할 경우 우리 법은 어떤 조치를 취할 수 있을까. 결론부터 말하면 기존 법으로는 인공지능 자체에 형사책임을 물을 수 없다. 인공지능은 일종의 기술이므로 법적 처벌 대상이 아니다. 인공지능으로 인한 범죄가 발생하면 인공지능 기술을 개발하고 관련 서비스를 제공한 회사가 형사처벌 대상이 된다. 인공지능이 개입된 범죄는 고의범과 과실범으로 나눌 수 있다. 고의범은 인공지능 기술을 고의로 조작해 범죄를 저지른 경우로, 현행 법체계 하에서 처벌하는 데 문제가 없다. 반면 과실범에 대한 형사책임은 인공지능의 역량, 즉 강 인공지능이냐 아니면 약 인공지능이냐에 따라 누구에게 책임을 물을지가 달라진다. 인공지능의 역량에 따라 프로그래머의 개입 정도 등이 달라지기 때문이다.
일례로 약 인공지능은 프로그래머의 개입 정도가 매우 높다. 약 인공지능에 의해 사고가 발생할 경우 1차적으로 프로그래머에게 형사책임을 묻고 구속시킬 가능성이 높다. 반면 강 인공지능의 경우에는 프로그래머가 정한 알고리즘에 따라 인공지능 자신이 머신러닝을 통해 로직을 구축했을 가능성이 높다. 이 경우에는 약 인공지능에 비해 프로그래머의 개입 정도가 낮다.
강 인공지능에 의해 사고가 발생할 경우에도 1차적으로는 프로그래머에게 형사책임을 물을 것이다. 하지만 인공지능의 작동 기반이 되는 빅데이터 오류에 따른 과실이나 인공지능 운영자의 과실 등이 결합되어 오류가 발생했을 가능성이 높다. 따라서 일련의 과정에 개입한 사람들 전체에 대해 형사책임이 배분될 것이다. 하지만 현행법만으로는 인공지능 범죄에 대한 명확한 처벌이나 형벌의 중요한 기능 중 하나인 범죄 예방을 기대하기 어렵다. 향후 인공지능 기술이 우리 일상에 지배적인 역할을 하게 될 것임을 고려할 때 강 인공지능 시대에 대비한 최소한의 법적 논의와 대비가 필요하다.
가장 손쉬운 방법은 인공지능이 개입되는 산업 분야마다 개별적으로 형사책임의 구성 요건을 달리하는 특별법을 제정하는 것이다. 하지만 이는 인공지능 관련 사업자들에게 상당한 혼란을 줄 가능성이 높다. 현행 개인정보보호에 관한 법률이 이와 유사한데, 우리 법은 개인정보보보호법을 일반법으로 두는 동시에 개인영상정보처리법과 전기통신망사업자법 등 산업 분야별로 비슷한 내용의 개인정보 규정을 이중삼중으로 두고 있다. 이로 인해 사업자들이 중첩 규제에 시달리고 있고 관련 산업의 발전을 저해하는 부작용을 낳고 있다.
인공지능 산업이 이와 같은 시행착오를 겪지 않으려면 인공지능의 형사책임에 관한 일반법을 제정할 필요가 있다. 그리고 필요에 따라 자율주행자동차나 드론 등 인공지능이 사용되는 분야별로 특별법을 제정하면 인공지능과 관련한 법체계의 정합성을 확보할 수 있을 것이다. 이와 함께 인공지능의 형사면책 기준을 정립하는 것도 필수적이다.
앞으로 인공지능 기술이 발전을 거듭하는 과정에서 수많은 과실이 발생하게 될 것이다. 만약 그때마다 프로그래머 등 관련자들을 모두 형사처벌하게 된다면 산업 발전을 크게 저해할 우려가 있다. 따라서 인공지능 산업 발전의 측면과 범죄 예방의 측면을 모두 고려해 인공지능 과실에 대한 면책기준을 설정하는 것이 필요하다. 우선은 일반적인 면책기준을 확립하고, 인공지능이 개입되는 분야 중에서 자율주행자동차처럼 인명이나 사회 안전과 밀접하게 관련된 특수 분야에 대해서는 별도의 면책기준을 마련하는 것이 바람직할 것이다.
특이점 시대에 대비해 인공지능에게
법인격
인공지능에게 법인격을 부여하는 것은 너무 이른 논의라고 생각될지도 모른다. 하지만 세계 곳곳에서 이미 현실로 벌어지고 있는 일이다. 오드리 햅번을 본 따서 만든 휴머노이드 로봇인 소피아는 2017년 10월 세계 최초로 사우디아라비아의 시민권을 획득했다. 유럽의회는 한발 더 나아가 2018년 2월 인공지능 로봇의 법적 지위를 ‘전자인간
우리나라의 산업용 로봇 생산량은 세계 4위, 산업용 로봇 시장 규모는 세계 2위에 달한다. 하지만 인공지능 로봇에 관한 법은 2008년 제정된
우리나라가 글로벌 시장에서 인공지능 로봇 시장의 선두가 되기 위해서는 법인격을 포함해 인공지능 로봇에 대한 법률 제정 논의를 서둘러야 한다. 가이드라인이 정해져야 인공지능 로봇 개발자들이 시행착오를 최소화해서 연구에 매진할 수 있기 때문이다. 법은 독과점을 규제하기도 하지만, 새로운 산업이 올바르게 성장하도록 돕는 역할도 수행한다는 사실을 잊지 말아야 한다.