특정 분야가 아니라 인간처럼 어떤 과제든 스스로 학습하고 해결할 수 있는 AI. 현재 AI 연구의 궁극적 목표로 여겨진다.
지금 우리가 쓰는 AI는 대부분 '좁은 AI(Narrow AI)'다. 이미지를 인식하거나, 번역을 하거나, 체스를 두거나 — 하나의 일은 잘 하지만 다른 일은 못 한다. 번역 AI에게 바둑을 가르쳐달라고 하면 아무 소용이 없다. AGI는 이런 제약이 없는 AI를 뜻한다. 낯선 상황에서도 스스로 추론하고, 새로운 지식을 습득하고, 여러 분야를 넘나들며 문제를 푸는 — 그러니까 사람처럼 생각하는 AI다.
Stanford HAI는 AGI를 '광범위한 과제에 걸쳐 인간 수준으로 학습·추론·지식을 적용할 수 있는 능력'으로 정의한다. IBM은 '어떤 과제에서도 인간의 인지 능력과 같거나 능가하는 가상의 AI 단계'로 설명한다. 공통점은 하나다. 아직 존재하지 않는다는 것.
GPT-4 같은 최신 LLM이 등장하면서 AGI 논의가 다시 뜨거워졌다. 글쓰기, 코딩, 수학, 이미지 설명까지 하나의 모델이 여러 영역을 넘나들기 때문이다. 일부 연구자들은 LLM이 이미 일반 지능의 초기 형태에 접근했다고 보고, 나무위키에서도 GPT-4를 '인공 일반 지능의 불씨'로 표현한 바 있다. 반대로, 진짜 이해나 추론 없이 패턴을 모방하는 것뿐이라는 반론도 강하다.
OpenAI, DeepMind, Anthropic 같은 주요 AI 연구소들은 AGI 달성을 명시적인 목표로 삼고 있다. Sam Altman은 AGI가 10년 안에 가능할 수 있다고 공개적으로 언급했고, DeepMind는 단계적 AGI 달성 로드맵을 발표했다. 이 기술이 실현되면 과학 연구, 의료, 교육 등 모든 분야에서 인간 전문가를 대체하거나 보조할 수 있다는 점에서 파급력이 크다.
AGI를 어떻게 정의하느냐에 따라 '달성 기준'이 달라진다. OpenAI는 AGI를 '대부분의 경제적으로 가치 있는 작업에서 인간을 능가하는 AI'로 정의한다. 반면 학계에서는 튜링 테스트 통과, 범용 문제 해결 능력, 자기 개선 능력 등 다양한 기준을 제시한다. 기준이 다르니 '이미 달성했다'는 주장과 '아직 멀었다'는 주장이 동시에 존재한다.
AGI를 넘어선 개념으로 ASI(Artificial Superintelligence)가 있다. 모든 분야에서 인간을 압도하는 수준으로, 닉 보스트롬 같은 연구자들이 이 시점을 '특이점(Singularity)'으로 부르며 인류 역사의 분기점이 될 것이라 경고한다.
AGI는 아직 가상의 개념이다. 현재 어떤 시스템도 진정한 AGI로 검증된 바 없으며, 연구자마다 정의가 다르다 보니 같은 기술을 두고 'AGI에 근접했다'와 '전혀 다른 문제다'라는 상반된 평가가 나온다. 미디어에서 AGI 달성 임박을 과장하는 경우가 많으니, 어떤 기준으로 말하는지 먼저 확인하는 것이 중요하다.
안전성 문제도 빼놓을 수 없다. AGI가 인간의 통제를 벗어나거나 잘못된 목표를 추구할 경우의 위험성 때문에, AI 안전 연구는 AGI 개발과 함께 가장 중요한 분야 중 하나로 꼽힌다.