송영미 한국전자통신연구원 기술기획부 선임연구원

[컴퓨터월드]

▲ 송영미 한국전자통신연구원 기술기획부 선임연구원

AI, 빅데이터 등을 중심으로 4차 산업혁명이 본격 시작됐다. 즉 미래 먹거리 시장을 둘러싼 패권경쟁이 본격화 된 것이다. 다시 말해 4차 산업혁명을 누가 주도해 나가느냐에 따라 국가 산업 및 경제 발전의 향방이 크게 달라질 수 있다는 것이다. 때문에 4차 산업혁명은 반드시 우리나라가 앞장서 나갈 수 있도록 여건을 만들어나가야만 한다는 게 전문가들의 지적이다. 특히 자원이 부족한 반면, 우수한 인력을 갖고 있는 만큼 잘만 하면 그 어느 나라에 못지않게 앞서 나갈 수 있다는 것이다. 통신 기술 및 인프라를 비롯해 SW 기술력 등을 많이 확보해 놓고 있기 때문이라는 것이다.

본지는 이에 따라 국내 ICT 산업 발전의 두뇌역할을 하고 있는 한국전자통신연구원(ETRI)에 의뢰해 미래 먹거리 및 일자리 창출에 지대한 영향을 미칠 것으로 판단되는 주요 아이템을 중심으로 관련 전문가들의 강좌를 1년 동안 게재한다. 즉 그들의 예리한 시각과 분석을 바탕으로 국내는 물론 세계 시장을 주도할 기술, 그 기술에 대한 글로벌 트렌드, 그 기술과 국내 기술과 맞물린 현 상황, 그리고 현안 문제 및 나아갈 방향 등을 짚어본다. <편집자 주>

 

■ 인간의 삶을 바꾸는 미래 ICT 전망 (2019년 11월호)
■ 바이오헬스 로봇의 현황과 전망 (2019년 12월호)
인공지능 시대의 초성능 컴퓨팅 (2020년 1월호)
■ 사용자 통신환경을 바꿔보자 (2020년 2월호)
알파고 은퇴 후 컴퓨터 바둑 현황 (2020년 3월호)
■ 미디어 부호화 기술의 현재와 미래 (2020년 4월호)
■ 디지털 탈바꿈 시대, ‘연결성’을 위한 위성통신 기술 (2020년 5월호)
■ 자율 이동체 시각지능 기술의 미래(사람 눈보다 강건한 RGB-Lider 기술) (2020년 6월호)
■ 글로벌 강국 도약을 위한 국가 (2020년 7월호)
■ 국내 5G 이동통신서비스 조기 상용화의 성과와 한계 (2020년 8월호)
■ 신뢰할 수 있는 AI (이번호)

AI란 특정 목표를 달성하기 위해 어느 정도의 자율성을 가지고 환경을 분석하고 행동을 취하는 지능적인 행동을 나타내는 시스템이다. AI를 단순한 기계/시스템 그 자체의 기능적 목적만이 아니라 ‘개인 및 사회의 복지와 공공의 이익을 향상시키고, 인류의 진보와 혁신을 가져오는 것’으로 이해해야 한다는 것이 신뢰할 수 있는 AI의 기본 개념이다.

AI 기술이 발전함에 따라, 인간 복지와 자유 향상을 목표로 인류를 위한 봉사와 공공의 이익에 대한 사용 의지에 기반하여 인간 중심적이여야 한다는 것이 강조되고 있다. 따라서 신뢰할 수 있는 AI는 사람 및 사회가 AI 시스템을 사용하기 위한 전제 조건이다. AI 시스템 자체의 신뢰 뿐 아니라 전체 라이프 사이클에 걸친 시스템의 사회-기술적 맥락에 포함되는 모든 행위자와 프로세스의 신뢰성을 포괄하는 전체적이고 체계적인 접근의 필요성이 부각되고 있다.

AI 기술은 딥러닝 중심의 ANI(Narrow AI)에서 AGI(General AI)로 발전할 것으로 전망된다. ANI란 하나의 영역 또는 분야에 대해 전문성을 가지는 인공지능 머신으로서 잘 정의된 도메인에 대한 지능화된 시스템이며, AGI는 어느 분야든 관계없이 인간의 지능 수준까지 도달한 인공지능 시스템으로 정의할 수 있다.

이는 AI가 인간을 이해하고 인간의 다기능적 능력을 복제할 수 있는 수준까지 발전하는 것으로 인간처럼 스스로 학습하고, 복합적인 감각과 지능을 가지고 인간과 소통하고 협력하는 인간중심의 AI로 발전하여 인간과 AI의 공존을 지향하고 있다. 기술이 발전함에 따라 AI는 인간 삶의 모든 측면에서 역할을 하는 범용 기술 중 하나가 될 것이며 인간의 삶을 향상시키고 미래 사회의 발전을 가속화하는 추진력의 핵심이 될 것이다.


국가별 정책

AI는 향후 개인, 사회, 산업, 공공 등 전 분야에 걸쳐 광범위하게 영향을 미칠 것이 확실시 된다. 이런 상황에서 각 국가는 미래 사회에 대비하기 위해 신뢰할 수 있는 AI와 관련된 정책 및 전략을 추진 중이다. 많은 국가들이 AI 윤리와 거버넌스에 관한 보고서를 발표하고, 전 세계가 공유해야 할 ‘원칙’에 대한 주도권 확보를 위해 다양한 가이드라인 및 정책을 제시하고 있다.

미국은 AI분야 글로벌 리더십을 확보하기 위해 ‘AI Initiative’를 발표하고(’19.02) 이후 1년간의 성과와 장기비전을 제시한 연례보고서를 발표했다(’20.02).

그 전략 중 AI 신뢰 문제해결을 위한 R&D를 지원하고 AI의 투명성, 안전, 보안, 견고성 및 복원력에 대한 합리적인 보증을 위한 노력에 집중하고 있다. 즉 AI의 잠재력을 실현시키기 위한 기술적 신뢰를 위해 기술적 장벽을 제거하기 위한 R&D 투자에 집중하고 있다. AI 기술의 윤리, 법제, 사회적 함의 이해 기반 AI 시스템 설계 방법론 연구, 안정적이며 신뢰할 수 있는 AI 시스템을 위한 추가적인 연구에 대한 필요성을 강조하며 우선 추진 과제로 제시하고 있다.

EU에서는 시민복지를 바탕으로 신뢰성을 강조한 AI 윤리 가이드라인을 발표하였다(’19.04). 모든 국민이 AI의 혜택을 누릴 수 있는 인간 중심이 윤리적 목적을 달성하는 동시에 신뢰할 수 있는 기술발전 기준을 구체적으로 제시하였다.

EU는 이를 통해 윤리적이며 안전한 AI 가이드라인을 선도하는 것을 목표로 하고 있으며 다른 국가들(G7, G20 등)과의 AI 분야 협력을 강화하고 연계를 지속해 나갈 것이라고 밝혔다. 이 가이드라인에서는 신뢰할 수 있는 AI 시스템 전체 라이프 사이클에서 충족해야하는 주요 요구사항 및 기술적, 비기술적 방법론 등을 포함한 프레임워크를 제안하였다.

또한 EU는 AI 정책 방향 및 전략을 제시한 ‘White Paper on Artificial Intelligence – A European approach to excellence and trust’를 발표하였다(’20.02). 유럽의 AI 우수성과 신뢰성 확보를 위한 생태계 조성 전략에 대한 구체적인 방향성을 제시한 것으로 그 중에서 AI 신뢰성 확보를 위한 규제 마련 등 AI 기술도입 촉진 및 확산을 위해서는 신뢰성 생태계 구축을 강조하였다.

▲ EU의 ‘Trustworthy AI’ 프레임워크

캐나다고등연구원(CIFAR: Canadian Institute for Advanced Research)은 ‘AI 세계구축: 국가적 지역적 AI 전략 보고서’를 발간하여 전 세계 국가별 AI 전략 및 정책을 8개 세부 분야로 구분하여 제시하였다.

이 보고서에 따르면 국가별로 발표한 AI 전략을 연구, 인재육성, 미래 일자리, 산업정책, 윤리, 데이터와 디지털 인프라, 공공부문의 AI, 포용 등으로 나누고 국가별 정책적 집중 분야를 비교 분석하였다.

EU는 다른 개별 국가들과 비교해 ‘윤리’와 관련한 정책에 집중하고 있으며 미국은 ‘연구’, ‘인재육성’, ‘일자리’, ‘데이터와 디지털 인프라’에 집중하여 구체적인 계획을 수립하고 있다. 반면 우리나라는 ‘연구’와 ‘산업정책’, ‘인재육성’에 주안점을 두고 싱가포르와 캐나다 등과 유사하게 ‘연구’와 ‘인재육성’에 세부정책을 구축하여 실행하고 있다. AI 관련 국가 전략 및 정책 수립에 글로벌 주도권을 가지고 선제적으로 대응하기 위해 한국 정책에 부족한 부분에 대한 보완 및 벤치마킹이 필요한 분야를 위해 다른 국가의 정책을 주시해 볼 필요가 있다.

▲ 한국, EU, 미국 국가별 AI 전략 비교

연구동향

스탠포드 대학은 인간중심 인공지능연구소인 HAI(Human-Centered AI Institute)를 설립하고 삶의 질을 향상시킬 수 있는 인간중심 AI 및 안전과 신뢰성 보장에 관한 연구를 진행하고 있다.

MIT미디어 랩의 윤리 및 거버넌스 AI 이니셔티브는 AI 기반 시스템 개발, 적용 및 기능이 진화하고 있으며 이에 대한 사회적 영향, 거버넌스 및 윤리적 영향과 관련된 광범위한 질문에 대한 지침을 제공하기 위한 연구들을 수행 중에 있다. 이는 AI 기반 시스템의 개발, 적용 및 기능은 빠르게 진화하고 있으며 이러한 기술 및 관행의 사회적 영향, 거버넌스 및 윤리적 영향과 관련된 광범위한 중요 단기 및 장기 질문에 대한 답을 찾기 위한 것이다.

하버드 케네디 스쿨의 The Future Society 그룹의 AI 이니셔티브에서는 글로벌 AI 정책 프레임워크를 제공하여 AGI 시대에 새로운 AI 거버넌스 및 혁신에 대한 연구 등을 진행 중이다. 그 중 AI와 관련하여 뇌 및 인지과학, 법률, 헬스 의약품 3가지 분야에 집중하여 연구 중에 있다.

미국 방위고등연구계획국인 DARPA는 설명가능한 AI 개발을 추진 중이며, AI NEXT 프로그램을 통해 AI의 악의적인 공격에 대응하기 위한 솔루션 개발에 집중하고 있다. 또한 미국 국립과학재단(NSF)은 신뢰할 수 있는 AI 시스템을 개발하기 위한 프로그램을 공모하고 있다.


기술적 고려사항

EU는 AI가 단순히 인간생활의 조력자가 아닌 삶의 일부로 편입되어 인간과 공존하는 시대가 임박했음을 강조한다. AI 시스템의 지능은 스스로 학습하고 향상되며 자동화된 시스템으로 구현될 것이다. 하지만 현재 대부분의 AI 시스템의 의사결정 근거에 대해서는 설명할 수 없으며 사용자가 모르는 악의적인 의도에 활용될 수도 있다.

또한 인간의 의도와 전혀 다른 방향으로 학습할 수 있으며 예기치 않은 동작을 발생할 수 있는 시스템적 특성을 가지고 있다. 이러한 특성 때문에 AI는 인간사회가 당면한 문제에 대한 해결책을 제시할 수 있는 동시에 인간사회에 문제를 심화시키거나 새로운 문제를 발생시켜 혼란을 가중시킬 수도 있다.

인간과 공존할 수 있는 인간 중심의 가치개념을 구현하는 AI를 위해 고려해야할 이슈들은 다음과 같다.

AI의 결정과 행동이 인간의 의도 또는 기대와 일치하는가? 인간의 윤리적, 문화적, 사회적 기준에 부합하는가? 올바르게 향상될 수 있는가? 신뢰할 수 있는 AI를 구현하기 위해 이러한 이슈들을 어떻게 정의하고 기술개발 시 적용할 것인지에 대한 방향성 수립 및 논의가 필요하다.

아래의 표는 신뢰할 수 있는 AI를 위해 기술적으로 고려해야 할 사항들을 제시했다. 신뢰할 수 있는 AI 시스템 개발 시 이러한 기술적 고려사항들을 포함하여 AI 시스템이 항상 따라야 하는 규칙인 화이트리스트와 AI 시스템이 절대로 해서는 안 되는 제한사항인 블랙리스트를 구성하여 체계적인 구조를 가지고 접근해야 할 것이다.

▲ 신뢰할 수 있는 AI 시스템을 위한 기술적 고려사항

시사점

AI의 활용이 다양해지고 그 역할이 확대되면서 신뢰성 있는 AI 기술 확보에 대한 중요성도 함께 부각되고 있다. AI 기술이 산업의 전 영역에 본격적으로 적용되면 생산성, 효율성 등을 향상시키고 경제적인 파급효과도 클 것으로 예상되지만 AI의 부작용, 오작동으로 인해 발생하는 사회적, 경제적 부정적인 영향력에 대한 우려도 동시에 커지고 있다. 따라서 신뢰성 있는 AI 기술 개발은 장기간에 걸쳐 투자해야하는 위험이 큰 미래기술로서 국가차원에서 관심을 가지고 투자해야 하는 영역 중 하나이다.

또한, AI에 대한 국가 간의 우위 선점 경쟁이 치열한 환경에서 신뢰할 수 있는 AI를 위해 중장기적으로 집중 투자해야할 원천기술 확보가 중요할 뿐 아니라 AGI 시대의 부작용을 방지하고 인간과 기술이 공존할 수 있는 방안도 함께 마련해야 할 것이다.

마지막으로, 개발, 제품/서비스 생산, 활용 등 AI 시스템 사용의 전 주기에 걸친 기술적 역할, 그리고 기술적 이슈와 사회적, 법적, 윤리적 이슈 사이의 협력과 지원을 위한 전략 및 구체적인 실행 방안에 관한 정책 연구와 지원 등도 수반되어야 할 것이다.

저작권자 © 컴퓨터월드 무단전재 및 재배포 금지