http://blog.naver.com/it-is-law/221053467308
http://blog.naver.com/it-is-law/221054346377 두 차례의 포스팅을 통해, 「2017 넷트렌드 전문가 포럼」 패널토의 주제였던 1) ‘AI(인공지능)가 바꿀 미래 경제산업 패러다임 변화’와 2) ‘AI(인공지능)시대 노동환경 변화에 대한 대응책’에 대해 상세히 설명해드렸었죠. http://www.dt.co.kr/contents.html?article_no=2017071302100151104001 해외에서 AI 기반 서비스와 사업이 빠른 속도로 발전하며 다양한 분야에 상용화되고 있는 가운데, 우리나라는 아직 AI 분야 발전이 걸음마 단계에 그치고 있는데요. 그 원인으로는, 개인정보 보호 문제와 맞물려 사업자가 AI의 기반인 ‘빅데이터’를 적극 활용하지 못하고 있다는 점을 최우선으로 꼽을 수 있습니다. 따라서 사업자에게 제약이 되는 개인정보보호법제 상의규제를 완화하는 것이 빅데이터 기반 산업의 발전을 위한 첫 번째 과제가 될 것인 바, ‘비식별조치’를 통해 개인을 특정할 수 없도록 가공된 정보를 적극적으로 활용하는 동시에 비식별조치를 거친 개인정보를 적법하게 이용한 사업자를 면책하는 규정을 마련함으로써, 보다 수월한 빅데이터 수집·분석·활용이 이뤄질 만한 환경을 만들어야 할 텐데요. 이와 더불어, ‘의제허가’ 제도를 개인정보를 수집·활용하는 사업 분야에 도입함으로써 신규 사업자가 규제에 묶여 시장 진입 시기를 놓치는 것을 방지할 필요가 있으며, 현재 국회에서 제정이 추진되고 있는 ‘빅데이터 활성화 및 개인정보처리 특례법’ 등이 조속히 통과·시행될 필요가 있습니다. 아울러 AI가 인간의 일자리를 빼앗을 것이란 부정적 전망보다는, 단지 일자리 구조와 형태가 변화할 뿐 도리어 AI 상용화로 인해 고부가가치 일자리가 창출될 것이라는 긍정적인 전망에 주목해야 합니다. 기존 1·2·3차 산업혁명 당시에도 일자리가 없어질 것이라는 우려는 늘 있어왔지만, 오히려 새 시대에 진입할수록 더욱 많은 종류의 일자리가 생겨났고 그에 따라 인류가 더욱 발전된 환경에서 살아온 것이 사실인데요. 일자리는 근본적으로 인간의 욕망을 충족시킬 ‘수요’와 이를 채우는 ‘공급’이 선순환하면서 발생하는 만큼, 새로운 시대에는 새로운 욕망, 즉 우리가 아직 예상치 못한 새로운 수요가 발생할 것이며 이 수요에 대한 공급·생산은 필연적으로 새로운 일자리를 만들어낼 것입니다. 다만 새로운 산업시대에 새로운 교육이 필요했던 것처럼, 이제는 정해진 스펙형 교육 대신 ICT 산업에 걸맞은 창조적 교육을 통해 새로운 일자리에 필요한 인력을 양성해야 할 것입니다.
[ 토론 영상 보기 ] 이어지는 오늘 포스팅에서는, 「2017 넷트렌드 전문가 포럼」 패널토의의 마지막 주제였던 ‘AI(인공지능)의 안전과 윤리 문제를 해결할 법제도 마련책 – AI 기계 사고 시 법적 책임소재’에 대해 다뤄보고자 합니다. http://blog.naver.com/it-is-law/221014543537 이전 포스팅을 통해, 홈 IoT(이하 스마트홈) 서비스는 우리 생활에 큰 편리함을 가져다주는 반면, 보안 문제가 해결되지 않을 경우 오히려 생활에 큰 위협이 될 수도 있다는 점을 알려드린 바 있습니다. 본격적인 4차 산업혁명의 시대를 맞아 사물인터넷(IoT)이 더욱 활성화될 미래에는, 원격으로 제어하는 수준을 벗어나 기계가 스스로 주변 상황을 인지하여 제어하는 상황인지형 스마트홈 시대가 열릴 것으로 예상되는 동시에, 시스템 해킹, 개인정보 유출 등 각종 보안 문제로 인한 피해도 급증할 것으로 예측되고 있는데요. 이에 따라 미래창조과학부는 2014년 10월 「IoT 정보보호 로드맵」을 수립, 뒤이어 「IoT 공통 보안 7대 원칙」(2015.06)과 「IoT 공통 보안가이드 15대 요구사항」(2016.09) 등을 발표하였으며, 지난 7월 18일에는 가정용 사물인터넷(IoT) 제품 및 서비스 개발자를 위한 안내지침인 「홈·가전 IoT 공통 보안 가이드」를 발표하는 등 꾸준히 대비책을 마련하고 있습니다.
http://www.ddaily.co.kr/news/article.html?no=158252 다만 이러한 정부 대비책에 대해 의문을 제기하는 시각도 있습니다. 이번 가이드는 작년 9월 마련한 'IoT 공통 보안 가이드'를 가정용 IoT 제품 및 서비스에 맞게 구체화한 것으로, 제품 및 서비스 개발 시 필요한 기술 권고사항이 담겨 있기는 하지만 보안 가이드는 말 그대로 안내서일 뿐 법적 강제성이 없어 실효를 거두지 못할 것이라는 의견이 제기되고 있는데요. 보안 기능을 넣을수록 제품 제작이 어렵고 가격이 비싸질 수밖에 없는데, 기업이 강제성도 없는 안내서에 따라 각종 부담을 떠안으며 보안 강화에 나설지는 의문이 드는 것이죠.
http://news.naver.com/main/ranking/read.nhn?mid=etc&sid1=111&rankingType=popular_day&oid=025&aid=0002739537&date=20170726&type=1&rankingSeq=2&rankingSectionId=105 그런가 하면 AI가 이미 인간의 이해 범위를 넘어섰다는 의견도 있습니다. 과거엔 개발자가 프로그램에 필요한 모든 내용들을 일일이 손으로 입력했고, 그렇기 때문에 그 프로그램이 개발자의 이해를 넘어서는 일은 발생하지 않았었는데요. 그러나 머신 러닝 기술을 채택한 오늘날의 AI는 다릅니다. 개발자가 AI에 기본적인 규칙이나 학습 능력을 만들어주고 데이터를 입력하면 나머지는 AI가 알아서 터득하는데요. 이 '알아서 터득하는 부분'은 개발자들에게 미지의 영역으로 남습니다. 간단히 말해, 개발자들조차 AI가 어떤 과정을 거쳐 결정을 내렸는지 알 수 없다는 것이죠. AI의 활용 영역은 현재 한창 논의되고 있는 자율주행차 상용화는 물론 유통, 금융, 의료, 군사 등으로 계속해서 확장될 전망입니다. 그럼에도 AI가 내린 결정을 어떻게 받아들일 것이며 그에 대한 책임은 누가 어떻게 질 것인지에 대한 논의는 아직 미미한 실정인데요. 제아무리 AI가 우리에게 극도의 효율성과 편리함을 가져다준다 해도, 안전성이 담보되지 않는다면 그리고 사고 발생 시 책임 소재가 불분명하다면 아무런 의미가 없을 것입니다.
http://www.yonhapnews.co.kr/bulletin/2016/09/06/0200000000AKR20160906102600062.HTML
http://news.naver.com/main/read.nhn?mode=LSD&mid=shm&sid1=102&oid=003&aid=0008089227 여름휴가를 다녀오던 20대 여성 4명의 목숨을 앗아간 작년 봉평터널 버스 참사, 50대 부부가 그 자리에서 숨지고 16명의 부상자까지 발생한 올해 경부고속도로 7중 추돌사고의 공통 원인은 버스기사의 졸음운전이었습니다. 이후 버스기사에 대한 엄벌과 함께 기사의 법정 휴식시간을 보장하지 않은 회사 측에도 강한 처벌이 내려져야 한다는 여론이 형성되었으며, 만약 자율 주행되는 버스였다면 이런 일이 발생하지 않았을 것이라는 가정이 세워지기도 했는데요. 그러나 만에 하나 자율 주행 차량임에도 유사한 사고가 발생했다면 현재 책임 소재를 놓고 의견들만 분분할 것입니다. 예를 들어, 차량 간격을 반드시 준수해야 할 자율 주행 차량이 이를 어겨 사고가 발생한 것이라면, 결함에 의한 것인지, 해킹에 의한 것인지, 혹은 인간이 도저히 이해할 수 없는 기계 스스로의 판단에 의한 것인지 의견만 나뉜 채 책임을 떠넘기기에 급급하겠죠. 자율주행차는 도로를 달리는 만큼 사고 발생 시 본인은 물론 타인의 재물이나 목숨에까지 피해를 입힐 가능성이 훨씬 더 높습니다. 특히 기술이나 시스템이 완벽히 갖춰졌다고 보기 어려운 상용화 초기에는 각종 사고가 발생할 가능성을 배제할 수 없는데요. 따라서 자율주행차가 본격적으로 일반화되기 이전에 결함, 해킹 등에 대한 대비책을 마련함과 더불어, 사고 발생 시 가해차량, 피해차량, 차량 제조회사, 도로관리자 등 관련자들의 법적 책임 소재를 미리 법제도화 해둘 필요가 있을 것입니다.
http://news.chosun.com/site/data/html_dir/2017/06/16/2017061601875.html 더불어 AI 의료사고 시 법적 책임 소재를 미리 법제도화 해둘 필요도 있습니다. 최근 ‘IBM 왓슨 포 온콜로지’라는 AI 진료 서비스가 병원에 도입되는 등 의료 분야는 홈 IoT, 자율주행차와 더불어 최근 AI가 실생활에 직접 도입되고 있는 분야인데요. 의료사고는 인간의 생명과 직결되는 만큼 홈 IoT, 자율주행차보다 더 엄격한 안정성이 담보되어야 할 것이며, 사고 시 책임 소재도 법으로 명확히 정해두어야 할 것입니다. 예를 들어 오진 사고가 발생했을 때, AI 의료기계 설계·개발자, 기계 소유자(병원), 기계 사용자(의사) 등의 책임 소재를 정해두어야겠죠.
http://www.sedaily.com/NewsView/1OHDIV1YVX 유럽연합(EU)은 지난해 통과시킨 포괄적정보보호법(GDPR)에, AI의 결정으로 인해 발생할 피해를 줄이기 위한 안전장치들을 삽입했습니다. 이에 따르면 인간은 AI가 단독으로 내린 결정의 주체가 되지 않을 권리, AI가 내린 결정에 대해 설명을 요구할 권리를 갖게 되며, 이 법은 2년의 준비 기간을 거쳐 내년 5월부터 모든 EU 국가에서 시행되는데요. 우리나라도 앞서 말씀드린 자율주행차 관련 법적 책임 소재를 미리 법제도화 함은 물론, 앞으로 AI로 인해 일어날 수 있는 각종 피해에 대한 사회적 논의를 거쳐 다양한 AI 관련 법제도를 마련하도록 해야 할 것입니다.
|