인공지능(AI) 이해에 필요한 개념
인공지능(AI) 이해에 필요한 개념에 대해 적어보겠습니다. AI를 개발하는 개발자나 연구원들이 아니면 쏟아지는 AI 소식에 이해할 수 없는 상황이 되어버렸습니다.
1. 신경망(Neural Network)
2. LLM(Large Language Model)
3. GAN(Generative Adversarial Network)
4. 컴퓨팅(Computing)
5. 자연어 처리(NLP, Natural Language Processing)
6. 블랙박스(Black Box)
7. 미세조정(Fine tunning)
8. 정렬(Alignment)
1. 신경망(Neural Network)
AI 붐의 핵심에 있는 기본 기술입니다. 1940년대에 처음 고안된 신경망은 인간의 뇌를 인공적으로 모방하려는 노력에서 비롯되었습니다.
두뇌의 신경망은 각기 다른 몇 개의 뉴런에 연결된 수백만 개의 단순 뉴런으로 구성됩니다. 개별 뉴런은 매우 단순하지만 대량으로 결합하면 질적으로 다른 일을 할 수 있고 복잡한 작업을 수행하는 방법을 배울 수 있습니다.
인간은 수천 가지의 세부 사항을 바로 분석해 새로운 사물이나 시나리오를 이해할 수 있습니다. 글자 뿐만 아니라, 색상, 질감, 크기 등 여러가지 특징을 동시에 수용합니다.
인공 신경망도 같은 구조입니다. 신경망은 하나의 팀으로 작동하는 정보 처리 장치의 집합체로 구성되며, 인간의 두뇌 내부에서 뉴런이 수행하는 것과 유사한 방식으로 정보를 전달합니다. 단 여기서 뉴런은 물리적 방식이 아니라 알고리즘으로 연결됩니다. 또 아직까지는 동시에 여러가지 정보를 복합적으로 인식하여 세부사항을 이해하지는 못하고 있습니다.
인공 신경망은 엄청난 컴퓨팅 성능과 대량의 데이터로만 작동되므로 지난 70년 동안 대부분 호기심의 대상이기만 하였지만, 21세기에 들어 상황은 완전히 바뀌었습니다. 슈퍼컴퓨터 같은 대형 컴퓨팅이 가능해지면서 인공 신경망도 비약적으로 발전하고 있습니다.
2. LLM(Large Language Model)
대형언어모델은 GAN과 함께 AI분야에서 급격히 발전하는 분야입니다. NVIDIA에 따르면, 최근 몇년 동안 매년 10배씩 성장한 분야입니다. 오픈AI의 GPT 시리즈, 구글의 팜(PaLM) 또는 메타의 라마(LLaMa) 등이 LLM이며 방대한 텍스트 데이터를 사용해 훈련됩니다. 이에 따라 LLM은 텍스트를 생성하거나, 문장을 요약할 수 있고, 이미지 생성도 가능하며, 챗봇, 코딩, 번역은 물론 의학, 법률, 회계 등의 전문 영역도 다룰 수 있게 되었습니다.
LLM은 고품질의 웹 문서, 책, 위키피디아의 기사들, 블로그 글과 깃허브의 오픈소스 코드 등 공개된 데이터를 활용해 학습하고, 이를 토대로 텍스트가 주어지면 다음에 어떤 텍스트가 올지를 확률적으로 예측해 내고 그 결과 더 긴 텍스트가 생성되면 또 다시 다음 텍스트를 예측하는 과정을 되풀이합니다.
이렇게 하면 전체 문장과 단락, 기사 또는 책을 생성하는 결과를 만들어낼 수 있습니다. 언어모델의 클수록 즉 매개 변수가 많을수록 더 좋은 성과를 내는 것으로 알려지고 있습니다. 매개변수 1,750억개인 GPT-3는 GPT-1 보다 1,500배 더 크고 성능도 더 뛰어납니다.
3. GAN(Generative Adversarial Network)
GAN(Generative Adversarial Network, 생성적 적대 신경망)은 이미지나 동영상, 음성의 생성에 쓰입니다. 최근의 비약적인 발전은 진짜처럼 보이는 가짜 이미지 생성도 가능하게 되었고, 음악을 만들거나, 동영상 편집도 가능하게 되었습니다.
GAN은 생성 모델과 판별 모델의 두 개 신경망으로 구성됩니다. 사실적인 사진을 만들어 내는 AI를 구축하는 경우를 예로 들어보겠습니다. 우선 판별 모델에게 무수한 사진들을 학습시킵니다. 판별 모델은 이를 통해 특정 사진에 '개'라거나 '고양이'라는 레이블을 붙일 수 있도록 한 다음, 생성 모델이 개나 고양이와 비슷한 이미지를 생성해 판별 모델을 속이도록 합니다. 판별 모델은 생성 모델이 생성한 이미지가 가짜라는 것을 식별하면 레이블을 붙이지 않게 되고 생성 모델은 이 결과를 학습해 더 비슷한 이미지를 다시 생성합니다. 이처럼 두 모델은 적대적(또는 대립적)으로 경쟁을 하면서 각기 성능이 향상됩니다. 그 결과 나중에는 실제와 구별하기 어려운 사실적인 개나 고양이의 이미지가 생성될 수 있습니다. 음성이나 동영상 그리고 3D 이미지도 같은 방식으로 만들어 낼 수 있습니다.
엔비디아의 GAN을 활용한 이미지 크리에이터 소프트웨어 "GauGAN"을 출시했습니다. 선을 그리거나 구간을 설정하기만 하면 그에 맞게 사진 그래픽이 생성되며, 예술가 뿐만 아니라 건축가, 영화 제작자등이 활용할 수 있다고 합니다. 유명한 화가인 고갱의 이름에서 따와 "GauGAN" 이름을 붙였습니다. NVIDIA는 또 동물의 이미지를 비슷한 종의 개체에 적용하여 합성하는 프로그램 "GANimal"을 출시하기도 하였습니다.
특정화가의 화풍을 학습하는 "딥드림"이라는 GAN프로그램도 있고, 아마존은 GAN을 기반으로 합성이미지를 쇼핑분야에 적용하기도 하였습니다.
4. 컴퓨팅
대형 AI 모델을 훈련하기 위해서는 컴퓨팅 성능도 크고 강력해야 하고, 비용이 많이 듭니다. GPT-3를 개발시 약 1,000만달러(약 131억원)가 소요된 것으로 알려졌습니다. 챗GPT를 개발한 오픈AI는 2018년에 이미 AI 훈련에 들어가는 컴퓨팅의 규모가 3개월 반마다 배로 증가한다고 밝혔습니다. 비영리 기업으로 출발한 오픈AI가 결국 마이크로소프트의 후원을 받게 된 배경입니다. LLM 같은 대형 AI도구는 이런 컴퓨팅 능력의 한계 때문에 대기업이 아니면 손을 대기 어려운 실정입니다.
5. 자연어 처리
자연어 처리(NLP, Natural Language Processing)는 컴퓨터가 인간의 언어를 이해, 생성, 조작할 수 있도록 해주는 인공 지능(AI)의 한 분야입니다. 이에 대한 연구는 1950년대 컴퓨터가 발명된 직후부터 시작되었으며, 언어학과 인공 지능(AI)을 모두 활용합니다.
최근 몇 년간 NLP 연구에서 이루어진 중대한 발전의 원동력은 데이터로부터 배우고 일반화하는 시스템을 개발하는 AI의 한 분야인 머신러닝입니다. 딥 러닝은 대규모 데이터 세트에서 매우 복잡한 패턴을 학습할 수 있는 일종의 머신러닝으로 웹에서 가져온 데이터 세트에서 자연어의 복잡성을 AI가 학습하게 되었습니다.
자연어 처리는 자연어 텍스트 또는 음성으로 데이터를 상호 연결하는 것으로 '언어 입력(language in)'이라고도 합니다.
NLP는 애플의 Siri, 마이크로소프트의 Cortana, 아마존의 Alexa와 같은 가상 비서의 핵심 기술입니다. 가상 비서에게 질문을 하면 NLP를 통해 사용자의 요청을 이해할 수 있을 뿐만 아니라 자연어로 응답할 수 있습니다. NLP는 텍스트와 음성 모두에 적용할 수 있으며, 인간의 모든 언어에 적용될 수 있습니다.
NLP 기반 툴의 또다른 예로는 웹 검색, 스팸 메일 필터링, 텍스트 또는 음성 자동 번역, 문서 요약, 감정 분석, 문법/철자 검사 등이 있습니다.
6. 블랙 박스
신경망은 종종 블랙 박스로 표현됩니다. 신경망이 가진 매개 변수가 많아질수록 입력과 출력 사이에 있는 작업 과정이 어떻게 진행되는지 파악하기 어려워집니다. 인공 신경망의 각 매개변수는 한 뉴런이 다른 뉴런에 어떤 영향을 미치는지 설명할 수 있지만 이런 변수가 1,000억개나 5,000억개 라면 사실상 파악이 불가능해지고, 이러한 이유로 블랙박스라고 불리고 있습니다.
7. 미세조정(Fine tuning)
GPT 시리즈와 같은 대형 AI는 범용성이 뛰어난 기초(foundational) 모델로 특정한 AI도구 개발에 쓸 때 이용할 수 있습니다. 이때 미세조정이 필요합니다.
예를 들어 좋은 과학 기사를 쓸 수 있는 AI를 개발한다면 언어모델을 처음부터 개발할 필요가 없습니다. GPT 같은 기초 모델에 과학 기사와 관련된 특정 데이터를 학습시켜 적은 비용으로 매우 특화된 기술을 가진 모델을 개발할 수 있습니다.
하지만 이 미세조정 과정에서 개발자는 어려움을 겪을 수 있습니다. 개발자로서는 GTP가 당초 훈련받은 데이터셋을 모르기 때문에 본인 의도와 맞지 않는 결과가 나올 경우 원인을 알 수 없는 상황을 겪을 수 있습니다.
8. 정렬(Alignment)
AI 시스템을 설계자가 의도한 목표나 관심사에 맞게 조정하는 것을 의미합니다. 잘 정렬된 AI는 의도된 목표를 달성하지만 정렬이 잘 되지 못한 AI는 오작동이나 피해를 초래할 수 있습니다. 이런 경우는 대게 훈련 데이터가 잘못됐을 때 나타난다고 합니다. 정렬의 개념은 AI가 인간의 가치를 따르도록 한다는 의미로도 사용됩니다. 인간을 능가할 만큼 고도로 발전한 AI가 출현하는 경우 인간의 가치를 따르도록 정렬돼 있지 않다면 대재앙을 부를 것이라고 우려하는 과학자들이 많이 있습니다.
'TREND > 인공지능' 카테고리의 다른 글
자율인공지능 첫번째 (0) | 2023.04.09 |
---|---|
AI챗봇 시장과 주목할 만한 기업 (0) | 2023.04.05 |
sLLM 기반의 인공지능 (0) | 2023.04.04 |
인공지능의 발전과 위험 (0) | 2023.03.31 |
멀티모달로 진화하는 AI (0) | 2023.03.30 |