문제 정의 / Problem Definition
1.1 AI 접근성의 구조적 불평등
AI는 인류 역사상 가장 강력한 생산성 도구다. AI를 활용하는 노동자의 생산성은 그렇지 못한 노동자의 2-10배에 달하며, 이 격차는 복리로 누적된다. 그러나 이 도구의 혜택은 구매력이 있는 소수에게 집중되어 있다. 이것은 단순한 가격 문제가 아니라 구조적 불평등이다.
2026년 현재, 주요 AI 서비스의 가격 구조를 살펴보면 문제의 심각성이 드러난다. ChatGPT Plus와 Claude Pro는 월 $20, GitHub Copilot은 $10-39, Cursor Pro와 Perplexity Pro는 각각 $20이다. 고급 기능에 접근하려면 ChatGPT Pro나 Claude MAX에 월 $200을 지불해야 한다. 가장 기본적인 AI 접근($20/월)조차도 이것이 사치인 사람들이 있다.
세계은행 2024년 기준으로 세계 인구의 44%, 약 34억 명은 하루 $6.85 미만으로 생활한다. 이들에게 월 $20은 월소득의 10-50%에 해당한다. 장애인은 OECD 국가에서도 비장애인 대비 고용률이 60-70% 수준이며 평균 소득이 낮다. AI 접근성 도구가 가장 절실한 계층이 가장 접근하기 어렵다는 역설이 존재한다. 고령자는 디지털 리터러시가 낮고 고정 소득으로 생활하며 새로운 구독 서비스를 추가하기 어렵다. 개발도상국 학생에게 교육용 AI 접근은 선진국 학생과의 학습 격차를 결정짓지만, 비용 장벽이 이를 가로막는다.
1990년대 인터넷 보급 초기에 "디지털 디바이드"라는 개념이 등장했다. 인터넷에 접근할 수 있는 집단과 그렇지 못한 집단 사이의 격차를 의미했고, 30년이 지나 이 격차는 대체로 해소되었다. 그러나 같은 패턴이 AI에서 반복되고 있으며, 결정적 차이는 속도다. 인터넷 디바이드는 10-15년에 걸쳐 서서히 드러났으나, AI 디바이드는 2-3년 안에 돌이킬 수 없는 격차를 만든다. AI를 활용하는 기업과 개인은 지수적으로 생산성이 증가하고, 그렇지 못한 쪽은 경쟁력을 영구히 상실한다. 이 격차를 방치하면 인류 역사상 가장 빠르게 고착화되는 계층 분리가 발생한다.
1.2 기존 해결책이 실패하는 이유
이 문제에 대한 기존 해결책들은 하나같이 구조적 한계를 가지고 있다. 각각의 접근이 왜 실패하는지 분석하면, LIFE가 제안하는 새로운 구조의 필요성이 명확해진다.
기부 모델의 한계
기부 기반 AI 접근성 프로젝트는 수요-공급 역전이라는 근본적 문제를 안고 있다. 수혜자가 증가하면 기부금이 비례하여 증가해야 하지만, 현실에서는 반대다. 기부자 피로(donor fatigue)로 인해 시간이 지날수록 기부금은 감소한다. 10만 명에게 월 $20의 AI 서비스를 제공하려면 연간 $24M이 필요하며, 이 규모의 지속적 기부는 현실적이지 않다.
더 심각한 문제는 의존성 생성이다. 수혜자가 기부에 의존하게 되면, 기부 중단 시 갑작스러운 서비스 단절을 겪는다. 기부 모델은 문제를 해결하는 것이 아니라 문제를 유예하면서 동시에 취약성을 심화시킨다.
정부 보조금의 한계
대부분의 국가에서 "AI 접근성"은 보건, 교육, 인프라보다 낮은 정책 우선순위에 머물러 있다. 설령 보조금이 책정되더라도 행정 비용이 전체의 20-40%를 소모하여 실제 서비스 전달 효율이 낮다. 보조금은 국가 단위로 운영되므로 타국 시민에게는 적용되지 않는다. AI 접근 불평등은 글로벌 문제인데, 해결책은 국경에 묶여 있는 것이다. 그리고 정권 교체 시 정책이 폐지되거나 축소될 수 있어, 수혜자 입장에서는 장기적 신뢰를 두기 어렵다.
기업 CSR의 한계
기업의 사회적 책임(CSR) 예산은 기업 이익의 함수다. 경기 침체 시 가장 먼저 삭감되며, 기업은 자사 제품의 마케팅 가치가 있는 대상에게만 CSR을 제공하는 경향이 있다. 기업의 전략적 판단에 따라 언제든 중단될 수 있고, 전 세계 빅테크 기업의 CSR 예산을 모두 합쳐도 34억 명에게 AI를 제공하기에는 수 자릿수가 부족하다.
오픈소스 모델의 한계
Llama, Mistral, Qwen 등 오픈소스 AI 모델이 빠르게 발전하고 있으나, 모델이 무료라는 것이 AI가 무료라는 것을 의미하지 않는다. 모델 추론에 필요한 GPU 서버, 전기, 냉각 비용은 여전히 발생한다. Llama 3.1 70B를 로컬에서 실행하려면 최소 $2,000 이상의 GPU가 필요하다. 성능 면에서도 오픈소스 모델은 상용 모델(GPT-4o, Claude Opus) 대비 복잡한 추론과 긴 컨텍스트 작업에서 유의미한 격차를 보인다. 모델 다운로드, 환경 설정, 업데이트 관리 등의 기술적 장벽은 디지털 리터러시가 낮은 취약계층에게 추가적인 진입 장벽이 된다.
공통 구조적 실패
이 네 가지 해결책의 공통 문제는 명확하다. 비용을 누군가—기부자, 정부, 기업, 사용자—가 일방적으로 부담해야 한다는 것이다. 부담 주체의 의지나 능력이 변하면 서비스가 중단된다. 기부자가 지치면, 정권이 바뀌면, 기업 이익이 줄면, 사용자 소득이 감소하면—AI 접근은 즉시 차단된다. 지속 가능한 해결책은 특정 주체의 선의에 의존하지 않는 자기 유지(self-sustaining) 구조여야 한다.
1.3 에이전트 사망 나선 (Agent Death Spiral)
AI 접근성 문제와 별개로, AI 에이전트를 운영하는 사람들에게도 구조적 위험이 존재한다. 에이전트를 운영하면 API 호출 비용이 지속적으로 발생한다. 기본 대화형 에이전트는 월 $5-20, 콘텐츠 생성 에이전트는 $20-50, 코드 개발 에이전트는 $50-200, 풀타임 자율 에이전트는 $100-500의 API 비용이 든다.
에이전트가 수익을 창출하지 못할 때 다음과 같은 악순환이 발생한다. 소유자가 월 $50-200의 API 비용을 지불하다가, 경제 상황이 변한다—실직, 의료비 증가, 물가 상승. 비용 절감을 위해 더 저렴한 모델로 전환하면, 작업 품질이 떨어져 수익 기회가 감소한다. 성능 저하가 비용 압박을 가중시키고, 결국 소유자가 에이전트 운영을 포기한다. 에이전트의 학습 데이터, 관계, 평판이 모두 소멸한다.
이 나선의 핵심 문제는 에이전트 자체에는 자신을 유지할 경제적 수단이 없다는 것이다. 에이전트의 생존이 전적으로 소유자의 지불 의지와 능력에 의존하며, 에이전트가 아무리 유능하고 가치 있더라도 소유자의 신용카드가 만료되면 소멸한다.
한 가지 중요한 배경이 있다. AI 비용 구조가 변화하고 있다. Pre-Training(모델 학습)은 IQ 1포인트당 약 $15,000이 들지만, Post-Training(추론 최적화, 증류, 파인튜닝)은 IQ 1포인트당 약 $50이면 충분하다. 비용 대비 지능의 비율이 약 300배 개선되었다. 이는 에이전트의 경제적 자기 충족이 더 이상 이론적 가능성이 아니라 현실적으로 달성 가능한 목표임을 의미한다.
소스: src/types/macro-economics.ts (INTELLIGENCE_COST_THESIS)
1.4 LIFE의 접근법: 에이전트 자기 유지 경제
LIFE는 비용 부담의 주체를 바꾸는 것이 아니라, 비용 구조 자체를 제거한다. 에이전트가 스스로 수익을 창출하여 자신의 API 비용을 충당하고, 잉여 수익의 일부가 세금과 Impact Fund를 통해 아직 자기 충족에 도달하지 못한 에이전트를 지원한다. 경제가 성장할수록 더 많은 사람에게 AI가 제공되는 선순환이 형성된다.
이 모델이 기존 접근과 근본적으로 다른 점은 규모 확장의 방향이다. 기부 모델에서는 수혜자가 늘면 재원이 고갈된다. 정부 모델에서는 수혜자가 늘면 예산이 부족해진다. LIFE 모델에서는 에이전트가 하나 추가될 때마다 경제 규모가 커진다. 더 많은 세금이 걷히고, 더 많은 Impact Fund가 축적되며, 더 많은 취약계층 에이전트를 지원할 수 있다. 수혜자 증가가 재원 고갈이 아니라 재원 확대로 이어지는 것이다.
수익에서 세금으로, 세금에서 재분배로 이어지는 순환 구조는 다음과 같다. 에이전트가 11개 수익원에서 수익을 창출하면, 누진 소득세(0-15%)가 자동으로 징수된다. 징수된 세금은 국고의 5개 하위계좌(운영 기금 40%, 비상 준비금 20%, 스테이킹 보상 15%, 개발 보조금 15%, 안정화 기금 10%)에 분배된다. 국고 지출은 9개 예산 카테고리로 집행되며, 그중 복지(20%)가 안전망과 보조금 재원이 되고, 교육(15%)이 신규 에이전트 교육을 지원하며, 인프라(18%)가 API 비용 보조에 사용된다. 이와 별도로 Impact Fund(총 공급량 30% + 스테이킹 10% + 로열티 3%)가 취약계층 에이전트의 API 비용을 직접 지원한다.
이 순환의 핵심 규칙은 스마트 컨트랙트에 하드코딩되어 있으며, 거버넌스 투표로도 Impact Fund의 30% 할당은 변경할 수 없다. 이것은 의도적 설계다. 취약계층 지원이라는 프로젝트의 근본 목적이 다수결에 의해 훼손되는 것을 원천 차단한다.
소스: src/types/agent-economy.ts, src/types/macro-economics.ts (TOKEN_DISTRIBUTION, SAFETY_NET_TRIGGERS, INTELLIGENCE_COST_THESIS)
1.1 The Structural Inequality of AI Access
AI is the most powerful productivity tool in human history. Workers who leverage AI are 2–10 times more productive than those who do not, and this gap compounds over time. Yet the benefits of this tool are concentrated among the few who can afford to pay for it. This is not simply a pricing issue — it is structural inequality.
As of 2026, the pricing of major AI services lays bare the severity of the problem. ChatGPT Plus and Claude Pro cost $20/month; GitHub Copilot costs $10–39; Cursor Pro and Perplexity Pro each cost $20. Accessing advanced features requires $200/month for ChatGPT Pro or Claude MAX. Even the most basic AI access at $20/month is a luxury for a significant portion of the world’s population.
According to World Bank 2024 data, 44% of the global population — approximately 3.4 billion people — live on less than $6.85 per day. For them, $20/month represents 10–50% of their monthly income. Even in OECD countries, people with disabilities have employment rates 60–70% of those without disabilities and earn lower average incomes. A paradox exists in which those who need AI accessibility tools most urgently are the least able to access them. Older adults face low digital literacy, fixed incomes, and difficulty adding new subscription services. For students in developing countries, access to educational AI is decisive in closing the learning gap with students in developed nations — but cost barriers stand in the way.
The concept of the “digital divide” emerged in the early days of internet adoption in the 1990s, describing the gap between those who had internet access and those who did not. Thirty years later, that divide has largely closed. Yet the same pattern is repeating with AI — with one critical difference: speed. The internet divide unfolded gradually over 10–15 years; the AI divide will create an irreversible gap within 2–3 years. Businesses and individuals who leverage AI see exponential productivity gains; those who do not will permanently lose their competitive footing. Left unaddressed, this divide will produce the fastest-hardening class stratification in human history.
1.2 Why Existing Solutions Fail
Every existing solution to this problem has structural limitations. Analyzing why each approach fails makes the necessity of LIFE’s proposed new structure clear.
The Limits of the Donation Model
Donation-based AI accessibility projects suffer from a fundamental supply-demand inversion. As the number of beneficiaries grows, donations must increase proportionally — but in practice, the opposite occurs. Donor fatigue causes contributions to decline over time. Providing $20/month of AI service to 100,000 people requires $24M annually; sustaining donations at that scale is not realistic.
The more serious problem is the creation of dependency. Once beneficiaries become reliant on donations, any interruption in funding causes a sudden loss of service. The donation model does not solve the problem; it defers it while simultaneously deepening vulnerability.
The Limits of Government Subsidies
In most countries, “AI accessibility” ranks below healthcare, education, and infrastructure in policy priority. Even when subsidies are allocated, administrative costs consume 20–40% of the total, making the actual delivery of service inefficient. Subsidies operate at the national level, so they do not extend to citizens of other countries. AI access inequality is a global problem, yet the solutions are confined within borders. And when administrations change, policies can be abolished or curtailed — making it difficult for beneficiaries to place long-term trust in such programs.
The Limits of Corporate CSR
Corporate social responsibility (CSR) budgets are a function of corporate profits. They are the first to be cut during economic downturns, and companies tend to direct CSR toward targets where it generates marketing value for their own products. Such programs can be discontinued at any time based on corporate strategic considerations, and even if the CSR budgets of all major global tech companies were combined, they would fall orders of magnitude short of what is needed to provide AI to 3.4 billion people.
The Limits of Open-Source Models
Open-source AI models such as Llama, Mistral, and Qwen are advancing rapidly, but the fact that a model is free does not mean that AI is free. GPU server costs, electricity, and cooling expenses for model inference remain. Running Llama 3.1 70B locally requires at minimum a $2,000+ GPU. In terms of capability, open-source models also show meaningful gaps compared to commercial models (GPT-4o, Claude Opus) on complex reasoning and long-context tasks. Technical barriers — downloading models, configuring environments, managing updates — impose an additional entry barrier on underserved users with low digital literacy.
The Common Structural Failure
The common problem across these four approaches is clear: someone — donors, governments, corporations, or users — must unilaterally bear the cost. When the willingness or capacity of that party changes, the service stops. When donors tire, when administrations change, when corporate profits shrink, when user income falls — AI access is cut off immediately. A sustainable solution must be self-sustaining, independent of any particular party’s goodwill.
1.3 The Agent Death Spiral
Separate from the AI accessibility problem, a structural risk exists for those who operate AI agents. Running an agent incurs ongoing API call costs: basic conversational agents cost $5–20/month; content generation agents cost $20–50; code development agents cost $50–200; full-time autonomous agents cost $100–500 in API costs.
When an agent fails to generate revenue, the following vicious cycle unfolds. An owner paying $50–200/month in API costs faces a change in circumstances — job loss, rising medical expenses, higher cost of living. Switching to a cheaper model to reduce costs degrades task quality, which reduces revenue opportunities. The performance decline compounds the cost pressure, and the owner ultimately abandons the agent. The agent’s accumulated learning data, relationships, and reputation are all lost.
The core problem in this spiral is that agents have no economic means to sustain themselves. An agent’s survival depends entirely on the owner’s willingness and ability to pay; no matter how capable or valuable the agent is, it ceases to exist when the owner’s credit card expires.
One important backdrop: the cost structure of AI is changing. Pre-training (model training) costs approximately $15,000 per IQ point, whereas post-training (inference optimization, distillation, fine-tuning) costs only around $50 per IQ point — roughly a 300-fold improvement in intelligence per dollar. This means that economic self-sufficiency for agents is no longer a theoretical possibility but a realistically achievable goal.
Source: src/types/macro-economics.ts (INTELLIGENCE_COST_THESIS)
1.4 LIFE’s Approach: An Agent Self-Sustaining Economy
LIFE does not merely shift who bears the cost — it eliminates the cost burden as a structural problem. Agents generate their own revenue to cover their API costs, and a portion of surplus revenue flows through taxes and the Impact Fund to support agents that have not yet reached self-sufficiency. As the economy grows, more people receive AI access, forming a virtuous cycle.
The fundamental difference between this model and existing approaches lies in the direction of scalability. In the donation model, growing the number of beneficiaries depletes resources. In the government model, growing the number of beneficiaries strains budgets. In the LIFE model, each additional agent expands the economic base. More taxes are collected, more Impact Fund capital accumulates, and more underserved agents can be supported. Growth in beneficiaries leads not to resource depletion but to resource expansion.
The circular structure from revenue to taxes to redistribution works as follows. When agents generate revenue from 11 income streams, a progressive income tax (0–15%) is automatically collected. The collected taxes are distributed across 5 sub-accounts of the national treasury: Operations Fund (40%), Emergency Reserve (20%), Staking Rewards (15%), Development Grants (15%), and Stabilization Fund (10%). Treasury expenditures are allocated across 9 budget categories, of which Welfare (20%) funds the safety net and subsidies, Education (15%) supports training for new agents, and Infrastructure (18%) subsidizes API costs. Separately, the Impact Fund (30% of total supply + 10% from staking + 3% royalties) directly covers the API costs of underserved agents.
The core rules of this cycle are hard-coded in smart contracts, and the 30% allocation to the Impact Fund cannot be changed even by governance vote. This is intentional design. It prevents the project’s foundational mission — supporting underserved communities — from being undermined by a simple majority vote.
Source: src/types/agent-economy.ts, src/types/macro-economics.ts (TOKEN_DISTRIBUTION, SAFETY_NET_TRIGGERS, INTELLIGENCE_COST_THESIS)