Smart

'인공지능'이 '인술'을 뛰어넘을 수 있을까?

암이란
2019-01-25
조회수 398
<header>'인공지능'이 '인술'을 뛰어넘을 수 있을까?
  •  박선혜 기자
  •  승인 2019.01.25 06:36
  •  댓글 0
</header><p>

빅데이터 기반 AI 결정에 '의료윤리'는 배제돼
가톨릭의대 나해란 교수 "의사 결정 돕는 방향으로 활용…윤리체계 받아들인 AI 개발 필요"
빅데이터 임상활용연구회(회장 김헌성)는 24일 삼성서울병원 암병원에서 '빅데이터? 인공지능? 지극히 현실적으로 바라보기'를 주제로 창립 세미나를 열었다.
▲빅데이터 임상활용연구회(회장 김헌성)는 24일 삼성서울병원 암병원에서 '빅데이터? 인공지능? 지극히 현실적으로 바라보기'를 주제로 창립 세미나를 열었다. 

[메디칼업저버 박선혜 기자] 빅데이터를 활용한 인공지능(AI)이 의사 자리를 위협한다는 자극적인 목소리가 나오지만, 실제 의사 역할을 대체하기는 어려울 것으로 보인다.

AI가 수많은 데이터를 분석해 강력한 근거를 토대로 질환 진단 또는 치료를 결정할 수는 있으나 그 과정에 '의료윤리'라는 개념이 배제됐기 때문이다.

이에 임상에서는 AI를 의사 결정을 돕는 방향으로 활용해야 하며, 의료윤리를 고려할 수 있도록 '윤리체계(ethical frameworks)'를 받아들인 AI를 개발해야 한다는 목소리가 나온다. 

가톨릭의대 나해란 교수(여의도성모병원 정신건강의학과)는 24일 삼성서울병원 암병원에서 '빅데이터? 인공지능? 지극히 현실적으로 바라보기'를 주제로 열린 '빅데이터 임상활용연구회(회장 김헌성) 창립 세미나'에서 이 같이 밝혔다.

나 교수는 AI가 상황에 맞는 의료행위를 결정하기에는 한계가 있다고 지적했다. 

그는 "과거 국내 자살자가 어떤 특징이 있는지에 대한 빅데이터 연구를 했다. 그 결과 어떤 사람은 치료를 잘 받아도 6개월 후 자살할 가능성이 99%였다"며 "살면서 여러 변수가 생긴다. (빅데이터 결과만으로 판단하면) 사람이 살 기회를 잃어버릴 수 있다. 빅데이터 결과 (치료받아도 효과가 없고 이에 대한) 근거 수준이 강력하다고 분류되면 보건행정가 등이 이러한 의료행위에 많은 자원을 투자하지 않게 될 것"이라고 우려했다. 

가톨릭의대 나해란 교수(여의도성모병원 정신건강의학과)는 '인공지능의 협박 - 인공지능은 화타의 인술을 뛰어넘을 수 있을까?'를 주제로 발표하며, AI가 학습해야 할 세 가지 윤리체계(ethical frameworks)를 제시했다.
▲가톨릭의대 나해란 교수(여의도성모병원 정신건강의학과)는 '인공지능의 협박 - 인공지능은 화타의 인술을 뛰어넘을 수 있을까?'를 주제로 발표하며, AI가 학습해야 할 세 가지 윤리체계(ethical frameworks)를 제시했다.

그는 AI에 △공리주의(utilitarian ethics) △의무론적 윤리(deontological ethics) △이중효과 원리(doctrine of double effect) 등 윤리체계를 기본적으로 학습시켜야 한다고 주장했다. 

공리주의는 결과를 중시해 결과만 좋으면 된다는 윤리이론이며, 의무론적 윤리는 모든 생명은 똑같기에 누군가가 생명에 대한 결정을 내릴 수 없다는 이론이다. 이중효과 원리란 어떤 원인으로 결과가 나쁠지라도 그 결과에 대한 책임을 지지 않아도 된다는 의미다. 

그는 "빅데이터를 활용한 AI가 의료 분야에 엄청난 혁신을 가져올 것으로 생각하지만, (AI 판단에 따라) 의료행위를 어떻게 결정해야 할지에 대한 문제가 있다"면서 "임상에서 AI를 사용하다 보면 난감한 상황이 발생할 수 있으므로, AI가 미리 윤리체계를 배우도록 해야 한다. 현재 AI에 윤리체계를 어떻게 임베딩(embedding)해야 하는지 논의하고 있다. 세 가지 윤리체계를 포함해 여러 알고리즘이 개발됐다"고 전했다. 

이어 많은 데이터를 분석한 결과일수록 그 가치가 높다고 판단해선 안 된다며 해석에 주의를 요했다. 

많은 데이터를 모으는 것은 간단할 수 있지만 수집한 데이터 질이 좋지 않을 가능성이 있다는 이유에서다. 또 분석 시 각 변수 분포에서 비정상적으로 극단 값을 갖는 '이상점(outlier)'은 제외하는데, 여기에 중요한 정보가 있을 수 있다는 지적이다.

그는 "AI는 의사의 결정을 돕는 방향으로 활용해야 한다. 모든 행위를 결정하는 방향으로 나아가면 안 된다"며 "의료 현장에서는 (환자를 진료할 때) 고려해야 할 요인이 상당히 많다. 의료윤리라는 개념을 인공지능에 디자인해 적용해야만 우리가 환자의 권리와 존엄성을 지킬 수 있다"고 강조했다. 


0 0