티스토리 뷰

다음 포스팅은 "XAI 설명가능한 인공지능, 인공지능을 해부하다" 책을 읽고 정리한 내용을 포스팅합니다. 

 

DARPA

 

1. XAI란?

- 설명 가능한 의사 결정 체계 

- 1975년 처음 등장 

- 부정확한 추론 과정을 확률적으로 모델링하는 방법 -> 이 규칙을 기반으로 조건부 확률 근삿값(Rule-based conditional probabiity approximation) 방식 개발, 의사 결정 과정을 확률적이고 체계적으로 정돈하는 방식

 

- 설명가능한 인공지능은 2004년이 되서야 "XAI(Explainable Aritificial Intelligence)"라는 전문용어로 자리 잡음

- 반렌트, 피셔, 만쿠소가 제시

- "컴퓨터 시스템이나 인공지능 시스템은 복잡해지는 반면에 그것들의 자기 설명 기능에는 발전이 없다!"

 

 

- XAI는 인공지능 모델이 특정 결론을 내리기까지 어떤 근거로 의사 결정을 내렸는지를 알 수 있게 설명 가능성을 추가하는 기법

- 머신러닝과 연관된 사람이 시스템을 신뢰하기 위해 사용

- 인공지능에 설명 능력을 부여해, 기계와 인간의 상호작용에 합리성을 확보 

 

 

2. 블랙박스

- 머신러닝은 연산과정이 많을 수록, 절차가 깊어질수록 학습과정이 복잡해짐 

->>> 학습을 위해 처리해야 할 매개변수가 많아지기 때문

- 블랙박스란? 머신러닝의 모델의 의사 결정 과정을 인간이 직접 이해할 수 없을 때 불림 

- XAI는 머신러닝의 모델의 블랙박스 성향을 인간이 이해할 수 있는 수준까지 분해하는 기술

 

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG more
«   2024/11   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
글 보관함