어디를 둘러보아도 머신러닝(machine learning) 인공지능의 시대다. 코로나19 사태는 비대면 사회를 우리의 예상보다 훨씬 앞당겨 놓았다. 인공지능 기반의 다양한 사회적 인프라, 서비스, 상품 등이 비대면 사회를 더욱 주도할 것이다. 알파고의 성공에서 보았듯이 인공지능을 최전선에서 이끄는 이론은 무엇보다도 머신러닝이다. 머신러닝을 실현하는 엔진은, 수많은 데이터에서 특정 패턴을 일반화하는 귀납적 알고리즘이다. 알고리즘이 무엇인지는 입력값이 주어질때 그 출력값이 자동으로 결정되는 함수 관계로 쉽게 이해할 수 있다.
머신러닝 알고리즘의 핵심은 인공지능이 학습을 하는 데에 있다. 그 학습의 결과가 얼마나 유의미할지는 학습이 어떤 종류의, 얼마나 많은 데이터로, 어떤 방식으로 이루어지는지에 따라 결정된다. 그렇다면 인공지능이 얼마나 많은 데이터를 학습하게 해야 하는가? 이 질문은 인공지능에게만 적용되는 것이 아니라 인간의 지능에도 적용된다. 학습을 위한 데이터의 양이 너무 적다면 인공지능의 학습에 당연히 제약이 있을 것이다. 따라서 데이터의 양이 많을수록 좋다고 생각할 수 있다. 그러나 너무 많은 데이터를 학습하는 것은 오히려 그 학습의 결과를 악화시킨다. 인간도 다르지 않다. 너무 많은 정보는 오히려 판단을 혼란스럽게 만들 수 있다. 우리가 너무 많은 선택지 앞에서 의사결정 장애를 경험하는 것과 같다.
이처럼 과도하게 많은 데이터로 인공지능의 학습이 악화되는 것을 ‘데이터 과적합(overfitting)’ 이라 부른다. 이 상황은 통계적 추론에서 데이터를 과도하게 많이 접하는 가설에 대해 그 가설의 예측력이 떨어지는 것과 같다. 반면에 그 가설의 설명력이나 정보력은 높아질 것이다. 일종의 트레이드오프(trade-off)가 발생한다. 데이터 과적합을 피하면서 최적의 데이터 양으로 기계를 학습시킬 수 있는지가 머신러닝이 직면한 문제다. 머신러닝이 해결해야 할 가장 시급하고 중요한, 그러나 쉽지는 않은 문제다.
이 문제를 해결하는 방법 중 하나는 단순성 (simplicity) 원리를 따르는 것이다. 단순성 원리는 오컴의 면도날(Ockham’s razor), 또는 경제성이나 검약(parsimony) 원리라 부른다. 서양 중세 말의 철학자 오컴의 윌리엄(1285~1347)은 ‘많은 것들을 필요 없이 가정해서는 안 되고, 더적은 수의 논리(가설)로 설명이 가능할 때 많은 수의 논리(가설)를 세우지 말라’고 주장했다. 그런데 단순성 원리는 그 자체가 문제다. 단순성을 어떻게 보편적 원리로 정당화하고 형식화할 수있는지는 여전히 논쟁 중이다. 흥미롭게도 단순 성에 대한 정당화는 직관적일 수 있다. 단순한 가설이 그렇지 않은 경쟁 가설보다 성공적인 결과를 보여주는 사실만으로 단순성 원리를 따를 수 있기 때문이다. 단순성 원리의 실현뿐 아니라 그원리의 정당성을 찾기 위한 다양한 연구와 노력이 계속 이루어지고 있다.
현재 우리는 정보의 홍수 속에서 살고 있다. 이제는 적절한 정보를 얼마나 빠르게 찾는지가 문제 해결의 열쇠가 되고 있다. 그런데 정보를 찾는 것만으로는 충분하지 않다. 정보를 적절히 활용할 수 있는 목표(방향성)와 전략이 필요하다. 그목표와 전략은 어떻게 결정할 것인가? 그 답을 얻기 위해 우리는 공부하고 있다. 유감인지 다행인지 모르겠지만 우리는 아마도 평생을 공부해야 할 것이다. 우리가 속한 조직 등 다양한 사회도 마찬가지다. 각자의 목표와 전략은 다양하다. 이처럼 수많은 정보에 대한 다양한 목표와 전략 중 최적화된 것을 찾는 데에 단순성 원리는 분명히 유용한 안내자의 역할을 할 것이다. 오컴의 면도날은 머신러닝 인공지능을 계속 진화하게 할 것이다. 우리에게도 다르지 않다.