기사 게시일: 송고시간: 2016/06/22 07:55
기사 게시 신문: 연합뉴스
작성자: 김태균 기자
기사 저장 목적: 공부용
출처: http://www.yonhapnews.co.kr/bulletin/2016/06/22/0200000000AKR20160622009300017.HTML?a4edfc00?64c83fe0?48237700?20b02600?33580590
전문가 "데이터 불충분 취약계층에 대한 불이익 고착화 우려"
시민들의 정보를 대량 분석해 사회 각계의 진실을 온전히 보여줄 것으로 기대를 모았던 '빅데이터 기술'이 거꾸로 특정 계층에 대한 차별과 편견을 부추길 수 있다는 지적이 나왔다.
22일 과학기술정책연구원(STEPI)에 따르면 안형준 STEPI 부연구위원은 월간 '과학기술정책' 최근호에 기고한 글에서 "빅데이터 기술을 선도하는 미국에서 올해 빅데이터의 새 부작용인 '차별'에 대한 정부 보고서가 두 편이나 잇달아 발간됐다"며 이처럼 강조했다.
빅데이터는 스마트폰·인터넷·신용카드 사용 등을 통해 우리가 남기는 정보의 집합체로, 특정 개인의 내용을 추출할 순 없어도 집단의 소비습관·동선·취향 등을 다각도로 파악할 수 있는 자료다.
현재 국내에서도 이 빅데이터를 분석해 금융상품 마케팅 전략을 짜거나 야간 버스 노선 등 공공 정책을 설계하는 사례가 많다.
안 부연구위원은 '알고리즘 안에 내재한 사회적 차별: 빅데이터에 대한 미국 정부의 우려'란 기고문에서 '잘못된 데이터 수집'과 '불투명한 알고리즘'(데이터를 처리하는 전산 명령 체제)이라는 두 요인 탓에 빅데이터 기술이 차별과 편견을 퍼뜨리는 분석 결과를 내놓을 수 있다고 설명했다.
우선 빅데이터 분석의 재료인 데이터(자료)를 모든 사회 계층에게서 고르게 수집 못 할 개연성이 적잖다. 예컨대 극빈층은 신용거래를 할 기회가 없어 신용 관련 데이터가 크게 부족하다. 이런 데이터를 기반으로 금융 거래의 적격을 자동 판정하면 '거래 불가' 낙인이 찍힐 수밖에 없다.
이처럼 불공정한 데이터 수집이 계속돼 비슷한 분석 결과가 쌓이면 극빈층은 결국 빅데이터 기술의 혜택에서 아예 소외되는 결과가 나올 수 있다고 안 부연구위원은 설명했다.
극소수 전문가만 세부 내용을 아는 빅데이터 분석 알고리즘도 문제가 될 수 있다. 이런 알고리즘에 특정 계층을 불리하게 취급하는 논리가 끼어 있으면 엉뚱한 분석 결과가 쏟아져도 바로잡기가 어렵게 된다.
이런 우려는 올해 1월 미국 연방거래위원회(FTC)가 발간한 '빅데이터: 포용의 도구인가 배척의 도구인가'와 지난달 백악관이 선보인 '빅데이터: 알고리즘 시스템, 기회 그리고 시민권' 보고서에서 집중적으로 다뤄졌다.
신용평가·고용·대학 입학·사법절차·의료 서비스 등 빅데이터가 도입된 현 사례를 봐도 인종·성별·지역 등에 따른 사회적 약자가 뜻밖의 차별이나 오해를 받는 문제가 심각하다는 것이 두 보고서의 요지다.
안 부연구위원은 "미국 정부는 '동등한 기회를 위한 빅데이터 설계' '투명하고 책무성 있는 알고리즘 개발 독려' '편견 방지 원칙의 제시' 등 대안을 내놓으며 이런 부작용에 선도적으로 대응하고 있다"며 "빅데이터와 관련해 '개인정보 보호' 수준의 논의만 이뤄졌던 한국으로서 시사점이 큰 대목"이라고 설명했다.
댓글 없음:
댓글 쓰기