IT

쉽게 보는 현 AI 주소

저긍 2024. 12. 1. 15:18
반응형

현재 인공지능의 급격한 발전에는 두 가지 주요 원인이 있다. 첫 번째는 딥러닝 모델의 등장이고, 두 번째는 GPU 기술의 발전이다.

 

예를 들어, GPT 모델은 무려 5조 개의 문서를 학습하여 만들어졌다. 현대 인공지능의 성능은 ‘규모의 법칙(Law of Scale)’에 따라 작동한다. 이 법칙은 컴퓨팅 파워가 클수록, 학습 데이터가 많을수록, 그리고 모델의 매개변수(parameter) 개수가 증가할수록 AI의 성능이 개선된다는 것을 의미한다.

매개변수가 천억 개를 넘거나 학습 연산량이 특정 임계점을 초과할 때, 성능 그래프가 급격히 상승하는 현상이 나타난다. 이를 ‘느닷없이 나타나는 능력(Emergent Ability)’이라고 부른다. 이는 AI 시스템에서 예측할 수 없었던 기술이 갑자기 발현되는 현상으로, 양적인 발전이 질적인 변화를 이끌어낸 것이다. 하지만 왜 이러한 현상이 발생하는지 아무도 모른다. 이것이 현 인공지능의 한계다.

AI가 뛰어나게 작동하는 이유를 모르니, 반대로 언제 문제를 일으킬지도 예측하기 어렵다. 따라서 실수가 치명적일 수 있는 영역에서는 AI의 활용이 제한적일 수밖에 없다.

책임성 또한 중요한 문제다. 어떤 경우에도 “이것은 인공지능이 한 일이에요”라는 변명은 통용되어서는 안 된다. AI를 개발한 사람과 사용하는 사람 모두가 결과에 대한 책임을 명확히 져야 한다. 이것이 인공지능 책임 윤리의 핵심이다.

 

AI가 환경에 미치는 영향도 간과할 수 없다. 예를 들어, GPT 모델의 질문 세션 하나를 처리하는 데에만 물 500ml가 소비되며, 막대한 탄소 발자국을 남긴다. (일론 머스크 xAI)

 

일론 머스크 xAI

주요 주제: 배터리 국소 과열 방지 최근 외신에 따르면, 일론 머스크가 비밀리에 추진하던 XAI의 데이터 센터 서버들이 공개되었다.그는 엔비디아의 H100 GPU를 무려 10만 개나 설치하여 우주와 시

redfleur.tistory.com

더 큰 문제는 이러한 환경 부담이 기후 변화나 재난 위기가 발생했을 때, 탄소 발자국을 남기지 않은 취약한 국가들에게도 똑같이 전가된다는 점이다. 또한, 인공지능에 투입되는 자원이 신약 개발이나 식량 문제 해결과 같은 사회적으로 유익한 분야가 아닌, 이윤을 창출할 수 있는 대규모 언어 모델에만 집중되는 것도 심각한 문제다.

반응형