BMW가 제안하는 인공지능의 7가지 원칙

  • 기자명 박종제 에디터
  • 입력 2020.10.22 11:30
  • 댓글 0
이 기사를 공유합니다

제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다.

제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종하여야 한다.

제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한 로봇은 로봇 자신을 지켜야 한다.

비록 소설가에 의해 만들어진 로봇의 기본 원칙이지만 아이작 아시모프가 제안한 로봇의 3원칙은 오늘날 거의 모든 로봇을 개발하는 과정에서 가장 기본적으로 적용되는 윤리 기준에 가깝다.

이 원칙의 목적은 매우 단순하다. 바로 로봇으로부터 인간을 보호하는 것이다. 쉽게 말해 터미네이터, 심판의 날과 같은 상황이 벌어지지 않게끔 하는 것이다. 그만큼 로봇이 가진 인간을 초월하는 능력을 인간 스스로 두려워하고 있다는 반증이라고 해도 좋다.

다소 엉뚱한 이야기로 시작했지만, 조금만 더 끌고 가기 위해 잠깐만 터미네이터로 다시 돌아가 보자. 사실 터미네이터에서 인류를 위협했던 건 T-800과 같은 로봇이 아니라 궁극적으로 로봇들을 지배하는 인공지능, 스카이넷이었다. 영화상의 이야기지만, 가슴에 명찰을 달고 붉은 피를 지닌 인간이 아닌… 차가운 금속 덩어리에 복사기 이름과 같이 지루하고 딱딱하기 그지없는 로봇과 이를 조종하는 인공지능에 의해 나의 생명이 거두어진다는 것은 어떻게 생각해도 무척 불쾌한 일이다.

심지어 인간의 피조물이 인간의 생존을 위협한다는 것은 매우 언짢은 일이 아닐 수 없다. 하지만 우리는 이와 같은 불편함을 이미 경험한 바 있다. 1996년 인간계 최고의 체스 마스터와 IBM의 인공지능, 딥블루가 수읽기를 포함한 지능 대결을 펼친 적이 있는데, 이 시합에서 인간계 최고의 체스 마스터는 1승 1패라는 기록을 남겼다.

하지만 체스보다 훨씬 더 복잡한 수를 읽고 대응해야 하기 때문에 사실상 인공지능으로는 불가능하다고 여겨졌던 바둑에서도, 인공지능과 인간의 대결이 펼쳐졌다. 우리가 잘 아는 알파고와 이세돌의 시합이었다. 그리고 그 결과는 4승 1패로 알파고의 압승이었다. 도저히 인간으로서는 예측하기 어려운 수를 놓아가며 세계 최고의 바둑 기사를 농락해버린 알파고를 바라보는 시각은 두 가지였다.

인간의 능력이 드디어 인간을 뛰어넘는 능력을 만들어 냈다는 것에 대한 경이로움과 더불어, 한편에서는 인간이 유일하게 믿고 있던 두뇌를 초월해 스스로 판단할 줄 아는 인공지능의 등장에 대한 두려움이었다. 물론 구글의 에릭 슈미트는 누가 이기든 인류의 승리라며 두려움을 뭉개려 했지만, 이 시합은 여전히 많은 사람들에게 충격으로 남아 있다.

이후 일각에서는 지나친 기술의 발달, 특히 인공지능의 발달에 대한 경계심을 품기 시작했다. 실제로 2018년 일론 머스크는 인공지능이야말로 장기적으로 핵보다 더 위험한 존재가 될 것이라 이야기했는데, 그만큼 인공지능 기술의 고도화에 대한 두려움을 품고 있는 사람이 많다는 반증일 것이다.

가령 자동차에 고도화된 인공지능이 탑재된 상태에서 마이클 센델의 정의에 등장하는 상황이 발생한다면, 인간이 아닌 인공지능은 상황을 어떻게 판단할 것인가에 대한 문제가 발생할 수 있으며, 이 과정에서 가장 심각한 문제는 인간의 생살여탈권을 인간 스스로가 아닌 인공지능이 소유하게 된다. 하지만 더 큰 문제는 결과에 대한 책임이다.

철길 위에 있는 한 사람과 다섯 사람 사이에서 인공지능은 어떤 선택을 하던 윤리적이지 못한 결론에 도달하게 되는데, 대체 이에 대한 책임은 누구에게 주어져야 하느냐의 문제는 논란이 될 수밖에 없다.

물론 인공지능이 꼭 두려움의 존재인 것만은 아니다. 오히려 다양한 영역에서 도움을 받는 경우가 더 많다. 예를 들어 기업 경영 혹은 생산 운영에 있어서도 AI의 도움을 받는 사례가 빈번한데, BMW 역시 실제로 밸류 체인 전반에 걸쳐 약 400건 이상 AI의 판단에 따라 의사결정을 진행했으며, 그로 인해 큰 도움을 받았다고 밝혔다. 다만 BMW는 지나친 의존이나 경계 없는 기술의 고도화에 대해서는 우려의 뜻을 밝히기도 했다.

그래서 최근 BMW는 인공지능 활용을 위한 윤리강령, 그러니까 아시모프의 3원칙과 같은 AI의 원칙을 만들었다고 한다. 프로젝트 AI로 밝혀진 BMW의 인공지능 프로젝트를 진행하기에 앞서 AI의 7대 원칙을 세웠고 이를 기초로 인공지능 기술의 발전과 응용을 진행할 예정이라고.

우선 BMW가 제안하는 AI 7원칙을 잠시 살펴보면 아래와 같다.

1원칙: AI는 인간의 선택 의지와 감독 하에 존재한다.

2원칙: 기술적으로 견고함과 안전성을 유지해야 한다.

3원칙: 개인의 정보를 보호하고 데이터를 통합 관리한다.

4원칙: 투명하게 운영되어야 한다.

5원칙: 다양성을 존중하며 공정성을 지키고 차별을 금지한다.

6원칙: 환경 및 사회 복지를 증진할 목적으로 사용되어야 한다.

7원칙: 관리 감독 측은 책임을 다해 AI를 작동 구현시킨다.

BMW는 현재 개발하고 있는 인공지능을 위 일곱 가지의 원칙에 의거하여 연구하고 있다고 밝혔다. 내용을 함축하면 AI를 철저히 공공재적인 성격으로 평등하게 사용할 수 있게 하며, 특히 인간에게 위해를 가할 목적으로 사용되어서는 안된다는 점을 분명히 강조하고 있다.

이 프로젝트의 책임자, 마이클 붸르텐베르거는 다음과 같이 이야기했다. “인공지능은 분명 디지털 세상으로 전환하는 핵심적인 기술임에 틀림없지만, 그럼에도 분명한 건 인간이 중심이어야 한다는 점입니다.” 비단 BMW뿐만 아니라 인공지능 기술을 주도하고 있는 마이크로소프트, IBM, 보쉬와 같은 회사들도 이와 유사한 AI의 원칙 또는 윤리강령을 발표하고 있는데, 핵심은 동일하다.

바로 “AI는 철저히 인간에 의해 관리 감독 되어야 하며, 인간에 대해 어떠한 판단도 내려서는 안 된다.”이다.

이제 우리는 자동차의 패러다임이 전기자동차로 바뀌었다는 사실을 거의 모두가 인지하고 있다. 그리고 여기서 한발 더 나아가 다음 패러다임은 기계적 플랫폼의 변화가 아닌 행동의 방식에 대한 변화, 쉽게 말해 인공지능에 의해 운전으로부터 자유로워지는 인간의 행동에 대한 변화로 나아갈 예정이다.

오늘날 모든 자동차 회사들이 자율 주행 자동차를 연구하고 개발하는 이유도 여기에 있다. 하지만 여전히 거의 대부분의 국가에서는 자율 주행 자동차에 대한 명확한 규정이나 법안을 내놓지 못하고 있다. 왜냐하면 만에 하나 발생할 수 있는 사고와 그에 대한 피해에 따른 ‘책임'이 과연 누구에게 있는가?라는 질문에 누구도 답을 내리지 못하고 있기 때문이다.

현재 BMW를 비롯해 다양한 인공지능 프로젝트 개발사에서 인간 본위의 윤리강령을 발표하고 있지만, 애석하게도 그 누구도 인공지능 오류 및 인공지능의 판단에 따라 발생하는 결과의 ‘책임'이 누구에게 있다는 내용은 규정하지 않고 있다.

물론 이 문제는 인공지능을 기반으로 한 자율 주행 자동차 시대가 본격적으로 도래하기 전에 법 제정 기관과 보험사 그리고 자동차 회사 간에 충분히 논의가 될 것이다. 하지만 그전까지 우리는 알파고에게 느꼈던 두려움을 완전히 떨쳐버리지 못할 것이다.

박종제 에디터는?

F1 레이싱 코리아 전 편집장으로 포뮬러 1과 관련된 뉴스 그리고 레이스의 생생한 이야기와 트랙 밖의 이야기를 다수의 매체를 통해 전해왔다.

레드불 코리아, 한국 타이어 매거진 뮤(MiU) 등의 온/오프라인 채널에 F1, 24h 르망, WRC 등 다양한 글로벌 모터스포츠 이야기를 전하고 있는, 모터스포츠 및 자동차 전문 에디터다.

저작권자 © 오토뷰 무단전재 및 재배포 금지