코딩하는 해달이

[인공지능] 3주차 - 인공지능의 발전과정, 지능형 에이전트 본문

학교 공부/인공지능

[인공지능] 3주차 - 인공지능의 발전과정, 지능형 에이전트

코딩하는 해달 2023. 3. 15. 11:08

인공지능의 발전 과정

인공지능 접근방법

인공지능의 4가지 접근 방법

▷ 인간과 같은 사고 : 인간의 마음과 같은 인간 수준의 지능

▷ 인간과 같은 행동 : 튜링 테스트

▷ 논리적 사고 : 사고의 법칙

  • 논리를 통해 활발히 연구

▷ 논리적 행동 : 합리적인 에이전트

중요!

▷ 약 인공지능 - 스스로 결정을 내리지 않고 사람이 시킨 일만 하기때문에 예측과 관리가 쉬움

▷ 강(일반) 인공지능 - 인간 수준의 인공지능

▷ 초 인공지능 - 인간의 지능보다 뛰어난 인공지능

인공지능의 도전과 한계

▷ 인공지능은 정말 인간보다 뛰어날 수 있을까?

  • 중국어방 논증 실험
    • 1980년 미국의 ㅡ언어철학자 존 설(John Searle)이 고안
    • 논증 실험을 통해 Turing Test를 회의적으로 반박
    • 컴퓨터의 지능적인 행동과 이해는 별개라고 주장
      • 방안에 있는 사람이 중국어를 몰라도 교본에 따라 내보내면 마치 이해하는 것처럼 보임
  • 상황인식에 기반한 스토리텔링
    • 스토리텔링: 상대방이 이해하기 쉽게 이야기 전개를 전달하는 기법
      • 3~4장의 사진이 순서없이 나열된 경우 인식하여 하나의 줄거리를 만드는 것
      • 하지만 현재 수준의 인공지능으로는 상당히 어려운 과제

인공지능에 대한 기대와 끊임없는 노력

  • 인공지능 연구는 초기부터 많은 사람들의 기대 속에 출발
  • 문자인식, 음성인식, 영상인식 등의 측면에서 상당한 성과
  • 특정 분야에서는 상당한 성과가 있으나 대부분의 분야에서 현재 인공지능 능력은 서너살 아이들 수준

 인공지능 연구의 어려움

  • 인간 수준의 인공지능 구현은 너무나 어려운 작업
    • 학습 문제
      • 학습이 어렵고 시간이 오래 걸리는 등의 제한점 존재
    • 데이터 문제
      • 실 세계 응용에서 상당한 양의 지식(데이터)이 필요함
    • 인지적 측면(인간과 같은 사고)에 대한 표현 어려움
      • 정신세계에 대한 표현과 창의성 구현이 매우 어려움

인공지능의 흐름

인공지능의 흐름

인공지능의 포함관계

  • 인공지능 : 전문가 시스템, 규칙기반 시스템
  • 머신러닝 : Decision Tree(결정 트리), Linear Regression(선형 회귀), Perceptron
  • 딥러닝 : CNN(합성곱신경망), RNN(순환신경망), 심층 강화학습
  • 기호주의, 연결주의 인공지능으로도 분류 가능

  • 기호주의 인공지능 vs. 연결주의 인공지능 vs. 통계적 인공지능
    • 기호주의(Symbolism) 계열 (2004년까지는 주로 활용)
      • 기호(Symbol)와 규칙(Rule)을 사용하는 규칙기반(Rule-based) 인공지능
  • 연결주의(Connectionism) 계열 (알파고 이후 대세)
    • 뉴런의 연결을 모방하는 신경망(Neural Network) 기반 인공지능
  • 통계주의(Statistic) 계열
    • 90년대 부터 사용되기 시작, 데이터사이언스(수요, 주식 예측)

규칙기반 인공지능 (기호주의)

  • 지식표현 : 문제 해결에 이용하거나 심층적 추론을 할 수 있도록 지식을 효과적으로 표현하는 방법
    • IF-THEN 규칙
    • 논리 : 명제논리, 술어 논리
    • 초기 인공지능 또는 좁은 의미의 인공지능이라고도 함
    • 주요 응용분야는 수학적 정리 증명, 자연어 처리

 신경망기반 인공지능 (연결주의)

  • 신경망 기반 인공지능을 간단히 신경망이라 함
  • 또는 인공신경망 이라 불림
  • 신경망은 인간 두뇌의 뉴런들 사이의 연결에서 아이디어를 차용
  • 추후 머신러닝, 딥러닝의 중심이 됨

신경망기반 예시

통계기반 인공지능 (데이터사이언스)

  • 통계적 수학, 연결주의, 빅데이터, 비즈니스 등 융합

인공지능의 역사

인공지능의 역사

인공지능의 역사

  • AI는 부침이 심했던 분야

 인공지능의 요람기

  • 인공지능은 1956년 미국 다트머스 대학의 하계컨퍼런스에서 시작
    • 수학자, 생물학자, 심리학자 등 10명이 모여 인공지능 개념 정의
  • 존 매카시에 의해 인공지능이라고 부르기를 제안
    • 이후 인공지능이란 용어가 사용되기 시작
  • 초기에는 간단한 게임이나 수학적 정리를 증명하는 실험적인 성격
  • 1957년 로젠블럿이 마크 1퍼셉트론이란 신경망 모델 개발
    • A,B,C와 같은 문자를 인식할 수 있어 엄청난 환호를 받음

 인공지능의 첫번째 겨울기 (1974년 ~ 1980년)

  • 인공지능은 1974년 무렵 상당한 어려움에 봉착
    • 퍼셉트론 이론의 결정적 문제점 노출 (XOR 표현 불가)
      • 신경망 연구가 침체에 빠짐 (기존 연구는 1개의 직선으로만 구분)
    • 인공지능 연구 어려움 봉착, 전문가 시스템(규칙기반)으로 연구방향 전환

 인공지능의 발전기 (1980년 ~ 1987년)

  • 1980년대 인공지능계의 최대 화두는 신경망 연구의 부활
    • 사라진 단층 퍼셉트론 모델이 다층 퍼셉트론 모델로 화려하게 컴백
      • 단층 퍼셉트론 모델에 하나 이상의 은닉층 추가
    • 러멜하트에 의해 역전파 알고리즘 제안
      (다층 구조에서 잃어가는 데이터 값을 뒤에서 읽어가며 확인하는 알고리즘)
      • 층이 증가함에 따라 가중치 바이어스 조정 오차가 커짐
      • 순방향 및 역방향 양쪽으로 반복적으로 움직이며 학습 수행
    • 다층 퍼셉트론은 패턴인식을 통해 문자, 영상 인식에 크게 기여

 인공지능의 두번째 겨울기 (1987년 ~ 1993년)

  • 1987년부터 인공지능 연구는 두 번째 겨울을 서서히 맞이함
  • 다층 신경망의 성능과 느린 컴퓨터의 속도로 신경망 연구 정체
  • 미국에서는 300개 이상의 상업용 인공지능 관련 회사가 사라짐
  • 특히 인공지능이 새로운 물결이 아니라는 주장이 대두
  • 미국방성 등 인공지능 연구 기금의 대폭 축소로 두 번째 겨울

 인공지능의 안정기 (1993년 ~ 2011년)

  • 1990년대에는 지능형 에이전트 연구가 시작됨
    • 베이지안 네트워크 등 머신러닝이 인공지능 연구에 도입됨
  • 1997년 IBM의 딥 블루(Deep Blue)가 체스 세계 챔피언에 승리
    • 많은 사람들이 한때 인공지능이 곧 실현될 것 같은 분위기에 빠짐
  • 2004년 제프리 힌튼(Hinton) 교수가 딥러닝 기반의 학습 알고리즘 제안
    • 딥러닝은 사진, 동영상, 음성 정보를 분류하는 분야에 많이 활용됨
  • 2011년 IBM의 왓슨이 TV 퀴즈쇼에서 인간 우승자들에 승리

 인공지능의 부흥기 (2011년 ~ 현재)

  • 2012년 구글이 스탠포드 대학 앤드류 응(Andrew Ng)교수와 함께 심층신경망(DNN) 구현
    • 1만 6천 개의 컴퓨터로 무려 10억개 이상의 신경망 구성
  • 2014년 페이스북은 딥페이크라는 얼굴 영상 편집 알고리즘을 개발
  • 2015년 알파고 프로토타입 개발, 2016년 바둑 세계 챔피언에 오름

참고 (알파고(AlphaGo) 알고리즘)

  • 몬테카를로 Tree Search Algorithm
    • Tree Search 알고리즘은 Solution(해)를 찾기 위해 경우의 수를 탐색하는 방법

지능형 에이전트

지능형 에이전트

지능형 에이전트

Agent

  • Agent는 Sensors(감각기관)을 통해 Environments(환경)을 Percept(인지)하여 Actuators(작동기)를 통해 환경에 대해 Action(반응)하는 시스템
  • Function(?, 물음표)은 action을 하기 위해 percept histories(sequential 정보)를 mapping함
  • Program은 Physical Architecture 상에서 실행되며, f라는 Agent function을 produce함

합리적 에이전트

합리적 에이전트

합리적인 에이전트

  • Rational Agent는 현재까지의 Percept된 Sequential한 정보를 기반으로 수행 성능평가(Performance measure)가 최대가 되는 Action을 선택할 수 있는 Agent를 의미
  • 합리적이란 무엇일까?
    • 성공의 기준을 성능평가를 통해 측정 가능해야함
    • 환경에 대한 사전지식이 있어야 함
    • agent는 현재까지의 연달아 일어나는 정보를 인식 가능해야함
      • agent는 현재까지의 인식된 정보 순서에만 의존(정보수집), 입력 정보에 대한 결과는 몰라야 함
      • 즉 agent는 학습을 통해 결과를 도출할 수 있어야 함
    • agent는 탐색을 통해 action을 취할 수 있어야 함
    • 부분적이거나 잘못된 사전 지식을 보완하기 위해 무엇을 할 수 있는지 학습 할 수 있어야 함

PEAS (Performance, Environment, Actuators, Sensors)( = 성능,환경,행동,감각)

  • 효율적인 Agent를 Design하기 위해, 가능한 많은 Task Environment를 정의해야 함
    • ex) 자율주행 택시 
      • 성능 - 안전, 목적지, 이익, 법, 편안함...
      • 환경 - 미국의 도로/ 고속도로, 교통 정체, 보행자...
      • 행동 - 핸들 조작, 엑셀, 브레이크...
      • 센서 - 비디오, 가속도계, 엔진 센서...
    • ex) 자동 쇼핑
      • 성능 - 가격, 질, 빠르게 도착, 효율성....
      • 환경 - 현재 웹사이트 내, 판매자, 택배사...
      • 행동 - 화면, URL, 채우기 폼...
      • 센서 - HTML페이지 소스...
  • Task Environment의 속성
    • 완벽하게 관찰 가능한지 vs. 부분적으로 관찰 가능한지
    • 결정 가능한지 vs. 확률적인가
    • 단편적으로 일어나는지 vs. 순차적으로 일어나는지
    • 정적인지 vs. 동적인지
    • 셀 수 있는가 vs. 연속적인 수인가
    • 하나의 일을 처리하는지 vs. 여러개의 일을 처리하는지

에이전트의 구조

  • 에이전트의 구조
    • 5가지 타입의 Agents
      • Simple Reflex Agents (단순 반사형 에이전트)
      • Model-based Reflex Agents (모델 기반 반응 에이전트)
      • Goal-based Agents (목표 기반 에이전트)
      • Utility-based Agents (효용성(value, 가치) 기반 에이전트)
      • Learning Agents (학습 에이전트)

단순 반사형 에이전트

 

  • Simple Reflex Agents (단순 반사형 에이전트)
    • 인지된 상태와 정확히 일치하는 반응만을 수행
    • 즉, Condition-Action Rule이 명확해야 함
    • 일반적으로 인지할 수 있는 환경은 Non-Deterministic하며 동적이기 때문에
    • 항상 이 관계가 성립된다고 볼 수 없음 (즉 응용 범위가 매우 좁다는 단점을 가짐)

 

 

  • Model-based Reflex Agents (모델 기반 반응 에이전트)
    • 인지된 상태(Status)에 관한 내부 지식을 계속적으로 기억하고 있는 agent
    • 인지된 상태가 Condition-Action Rule에 정확히 matching되지 않더라도, 인지된 상태 (status)로부터 유사한 결론부를
      찾아낼 수 있음 (따라서 거대한 지식 베이스를 필요)

 

 

 

  • Goal-based Agents (목표 기반 에이전트) - ex) 탐색알고리즘
    • 인지된 상태(Status)에 대한 반응(Action)이 목표가 주어졌을 때 보다 정확히 수행될 수 있다고 가정한 Agent (e.g. 탐색(Search) 문제나 계획(Planning) 문제에 적용되는 Agent)
    • 하지만 인지 가능한 환경이 모두 목표를 기반으로 수행되지는 않음

 

 

  • Utility-based Agents (효용성 기반 에이전트)
    • agent 가 인지한 반응을 목표에 대해 얼마만큼 만족하는지 사용자 중심으로 목표에 대한 만족도를 수치화하는 agent

 

 

 

 

 

 

  • Learning Agents (학습 에이전트)
    • 학습을 통해 Agent의 반응(Action)을 결정
      • Learning Element를 통해 Performance Element를 지속적으로 변화하여 반응(Action) 교정
      • Performance Element는 Learning Element에게 지식을 주입함으로 부분적이거나 잘못된 사전 지식을 보완

 

 

요약

  • Agent는 행동 및 감각 센서를 통해 환경과 상호 작용함
  • Agent Function은 인식된 과거 정보를 통해 Agent가 수행하는 행동을 의미함
  • 효율적인 Agent는 인식된 정보를 기반으로 수행 성능평가(Performance measure)가 최대가 되는 행동을 선택할 수 있는 Agent
  • PEAS는 수행 환경를 정의 함
  • 환경은 여러 개로 분류 될 수 있음
  • 5가지 Basic Agent Architecture가 있음
반응형

'학교 공부 > 인공지능' 카테고리의 다른 글

[인공지능] 1주차 - 오리엔테이션  (0) 2023.03.08
Comments