[번역] 비탈릭 부테린: 크립토 + AI 애플리케이션의 가능성과 과제

[번역] 비탈릭 부테린: 크립토 + AI 애플리케이션의 가능성과 과제
비탈릭 부테린이 생각하는 크립토 + AI <출처: ABC News>

피드백과 토론을 제공해 주신 월드코인 및 모듈러스 랩스 팀, 신위안 선, 마틴 코펠만, 일리아 폴로수킨에게 특별히 감사드립니다.

지난 몇 년 동안 많은 분들이 저에게 비슷한 질문을 해왔습니다. 크립토와 AI의 교차 중, 가장 유익하다고 생각되는 것은 무엇인가요? 합리적인 질문입니다.

암호화폐와 AI는 지난 10년간의 두 가지 주요 심층 (소프트웨어) 기술 트렌드이며, 이 둘 사이에는 어떤 종류의 연결고리가 있을 것 같습니다. 암호화폐 탈중앙화는 AI 중앙화의 균형을 맞출 수 있고, AI는 불투명하지만 암호화폐는 투명성을 제공하며, AI는 데이터가 필요하고 블록체인은 데이터 저장과 추적에 적합하다는 등 피상적인 수준에서 시너지 효과를 생각하기는 쉽습니다.

하지만 지난 몇 년 동안 사람들이 저에게 좀 더 깊이 파고들어 구체적인 애플리케이션에 대해 이야기해달라고 요청했을 때, 제 대답은 실망스러웠습니다: "네, 몇 가지가 있긴 하지만 그 정도는 아닙니다."

지난 3년 동안 최신 LLM의 형태로 훨씬 더 강력한 AI가 등장하고, 블록체인 확장 솔루션뿐만 아니라 ZKP, FHE, MPC의 형태로 훨씬 더 강력한 암호화폐가 등장하면서 저는 이러한 변화를 목격하기 시작했습니다.

실제로 블록체인 생태계 내부에 AI를 적용하거나 암호학에 AI를 결합하는 등 유망한 응용 분야가 있지만, AI가 어떻게 적용될지 신중하게 고려하는 것이 중요합니다. 특히, 암호학에서는 오픈소스가 진정으로 안전한 무언가를 만들 수 있는 유일한 방법이지만, AI에서는 모델(또는 그 훈련 데이터)이 공개되면 적대적인 머신러닝 공격에 대한 취약성이 크게 증가합니다.

이 글에서는 암호화와 AI가 교차할 수 있는 다양한 방법을 분류하고 각 범주의 전망과 과제를 살펴볼 것입니다.

uETH 블로그 게시물에서 설명한 암호화폐와 인공지능의 교차점에 대한 개략적인 요약입니다. 하지만 이러한 시너지를 애플리케이션에서 실제로 실현하려면 무엇이 필요할까요?

네 가지 주요 카테고리


AI는 매우 광범위한 개념입니다. 알고리즘을 명시적으로 지정하는 것이 아니라 원시 수프를 저어준다고 생각하시면 됩니다. 여기에 일종의 (최적화) 압력을 가하여 원하는 속성을 가진 알고리즘을 생성하는 방향으로 수프를 움직여 생성하는 알고리즘 집합이라고 생각할 수 있습니다.

이 설명을 경솔하게 받아들여서는 안 됩니다. 애초에 인간을 창조한 과정도 여기에 포함되기 때문입니다! 하지만 AI 알고리즘에는 몇 가지 공통된 속성이 있습니다.

즉, 매우 강력한 작업을 수행할 수 있는 능력과 함께 내부에서 무슨 일이 일어나고 있는지 알거나 이해하는 능력에는 한계가 있다는 것입니다.

AI를 분류하는 방법에는 여러 가지가 있지만, '게임'을 만드는 플랫폼으로 설명되는 블록체인과 AI의 상호작용을 기준으로 다음과 같이 분류하겠습니다:

  • 게임의 플레이어로서의 AI [가장 높은 실행 가능성]: 인센티브의 궁극적인 원천이 인간의 입력이 있는 프로토콜에서 나오는 메커니즘에 참여하는 AI
  • 게임의 인터페이스로서의 AI [잠재력은 높지만 위험성이 있음]: 사용자가 주변의 암호화폐 세계를 이해하고, 사용자의 행동(예: 서명된 메시지와 트랜잭션)이 의도와 일치하는지, 속거나 사기를 당하지 않는지 확인할 수 있도록 돕는 AI
  • 게임의 규칙으로서의 AI: 블록체인, DAO 및 이와 유사한 메커니즘이 AI를 직접 호출하는 경우 매우 조심스럽게 접근해야 합니다. 예: "AI 재판, 판단"
  • 게임의 목적으로서의 AI [장기적이지만 흥미로운 접근]: 다른 목적으로 사용될 수 있는 AI를 구성하고 유지하는 것을 목표로 블록체인, DAO 및 유사한 메커니즘을 설계하고, 암호화폐 비트를 사용하여 훈련에 더 나은 인센티브를 제공하거나 AI가 개인 데이터를 유출하거나 오용되는 것을 방지합니다.

하나씩 살펴보도록 하겠습니다.

게임 속 플레이어로서의 AI


이 유형은 적어도 탈중앙화 거래소(DEX)가 본격적으로 사용되기 시작한 이래로 거의 10년 동안 존재해 온 카테고리입니다. 차익거래를 통해 돈을 벌 수 있는 기회는 항상 존재하며, 봇은 사람보다 훨씬 더 거래를 잘합니다.

이러한 사용 사례는 훨씬 단순한 AI에서도 오래 전부터 존재해 왔지만, 궁극적으로 이는 매우 실질적인 AI + 암호화폐의 교차점입니다. 최근에는 MEV 차익거래 봇이 서로를 악용하는 경우가 종종 있습니다. 경매나 거래와 관련된 블록체인 디앱에는 언제나 차익거래 봇이 존재합니다.

그러나 AI 차익거래 봇은 훨씬 더 큰 범주의 첫 번째 예시일 뿐이며, 곧 다른 많은 애플리케이션이 포함될 것으로 예상됩니다.

아래 인공지능이 플레이어가 되는 예측 시장의 데모인 AIOmen을 살펴보세요.

저는 2014년에 예측 시장을 거버넌스('futarchy')의 입력으로 사용하는 것에 흥미를 느꼈고, 지난 대선과 최근까지도 예측 시장을 광범위하게 활용했습니다.

그러나 지금까지 예측 시장은 실제로 크게 활성화되지 못했으며, 그 이유는 대규모 참여자가 비합리적인 경우가 많고, 올바른 지식을 가진 사람이라도 큰돈이 수반되지 않는 한 시간을 들여 베팅하지 않으며, 시장이 빈약한 경우가 많다는 점 등 여러 가지가 일반적으로 제시되고 있습니다.

이에 대한 한 가지 대응책은 폴리마켓이나 다른 새로운 예측 시장의 지속적인 UX 개선을 지적하고, 이전의 반복이 실패한 곳에서 성공할 수 있기를 바라는 것입니다.

결국, 사람들은 스포츠에 수백억을 기꺼이 베팅하는데, 미국 대선이나 LK99에 베팅하는 사람들이 진지한 플레이어들이 들어오기 시작할 정도로 충분한 돈을 투자하지 않을 이유가 없다는 이야기입니다.

그러나 이 주장은 이전의 반복이 (적어도 지지자들의 꿈과 비교했을 때) 이 정도의 규모에 도달하지 못했다는 사실과 맞서야 하며, 따라서 예측 시장이 성공하려면 새로운 무언가가 필요한 것처럼 보입니다.

따라서 2010년대에는 볼 수 없었던 예측 시장 생태계의 한 가지 특징, 즉 AI의 보편적 참여 가능성2020년대에 기대할 수 있다는 것이죠.

인공지능은 시간당 1달러 미만으로 일할 수 있고, 백과사전 수준의 지식을 갖추고 있으며, 부족하다면 실시간 웹 검색 기능까지 통합할 수 있습니다. 시장을 만들고 50달러의 유동성 보조금을 내걸면 인간은 입찰에 관심을 두지 않겠지만, 수천 명의 AI가 해당 문제에 쉽게 몰려들어 최선의 추측을 할 것입니다.

한 문제에서 좋은 성적을 거두는 것에 대한 인센티브는 미미할 수 있지만, 일반적으로 좋은 예측을 하는 AI를 만드는 것에 대한 인센티브는 수백만 달러에 달할 수 있습니다.

잠재적으로 대부분의 문제를 판정하는 데 인간이 필요하지 않을 수도 있습니다. 어거(Augur)나 클레로스(Kleros)와 유사한 멀티 라운드 분쟁 시스템을 사용할 수 있으며, 이 시스템에서는 AI도 이전 라운드에 참여할 수 있습니다. 인간은 일련의 에스컬레이션이 발생하고, 양측이 거액의 돈을 투자한 극히 일부의 경우에만 대응하면 됩니다.

이렇게 미시적인 규모에서 '예측 시장'이 작동하도록 만들 수 있다면, 다른 많은 종류의 문제에 '예측 시장' 프리미티브를 재사용할 수 있기 때문에 이것은 매우 강력합니다.

  • 이 소셜 미디어 게시물이 [이용약관]에 따라 허용되나요?
  • 주식 X의 가격은 어떻게 되나요(예: 뉴머라이 참조)?
  • 현재 저에게 메시지를 보내고 있는 이 계정이 실제 일론 머스크인가요?
  • 온라인 작업 마켓플레이스에 작업을 제출하는 것이 허용되나요?
  • https://examplefinance.network 의 디앱은 사기인가요?
  • 0x1b54....98c3이 실제로 "Casinu Inu" ERC20 토큰의 주소인가요?

이러한 아이디어의 상당수가 제가 "정보 방어"라고 불렀던 방향과 일치한다는 것을 알 수 있습니다. 넓게 정의하자면, 중앙화된 기관이 옳고 그름을 결정할 수 있는 권한을 남용하지 않고 어떻게 하면 사용자가 진실과 거짓 정보를 구분하고 사기를 감지할 수 있도록 도울 수 있을까요?

미시적 수준에서는 "AI"가 그 해답이 될 수 있습니다. 하지만 거시적 차원에서 보면 누가 AI를 구축할 것인가가 문제입니다. AI는 그것을 만든 과정을 반영하는 것이기 때문에 편견을 가질 수밖에 없습니다. 따라서 서로 다른 AI가 얼마나 잘하고 있는지를 판단하는 더 높은 수준의 게임이 필요하며, AI가 게임의 플레이어로 참여할 수 있습니다.

AI가 인간으로부터 입력을 수집하는 온체인 메커니즘(탈중앙화된 시장 기반 RLHF라고 부를까요?)에 의해 궁극적으로 (확률적으로) 보상을 받거나 불이익을 받는 메커니즘에 참여하는 이러한 AI의 사용은 정말 검토해 볼 가치가 있는 일이라고 생각합니다.

블록체인 확장이 마침내 성공하면서 이전에는 불가능했던 '마이크로'의 모든 것이 마침내 온체인에서 실행 가능해졌기 때문에, 지금이 바로 이와 같은 사용 사례를 더 자세히 살펴볼 적기라고 생각합니다.

관련 애플리케이션 카테고리는 고도로 자율적인 에이전트가 블록체인을 사용하여 결제나 스마트 컨트랙트를 통해 신뢰할 수 있는 약속을 하는 등 더 나은 협업을 하는 방향으로 나아가고 있습니다.

게임 인터페이스로서의 AI


제가 이 글에서 언급한 아이디어 중 하나는 사용자가 탐색하는 온라인 세계의 위험을 해석하고 식별하여 사용자의 이익을 보호할 수 있는 사용자 대면 소프트웨어를 개발할 수 있는 시장 기회가 있다는 것입니다. 이미 존재하는 한 가지 예로 메타마스크의 사기 탐지 기능을 들 수 있습니다.

또 다른 예로 래비 지갑의 시뮬레이션 기능을 들 수 있는데, 이는 사용자가 서명하려는 거래의 예상 결과를 보여줍니다.

래비가 제 모든 '비트코인'(실제 BTC가 아닌 임의의 사기성 ERC20)을 이더리움으로 교환하는 거래에 서명했을 때의 결과를 설명해 주었습니다.

잠재적으로 이러한 종류의 도구는 AI를 통해 더욱 강력해질 수 있습니다. AI는 사용자가 어떤 종류의 디앱에 참여하고 있는지, 서명하는 복잡한 작업의 결과는 무엇인지, 특정 토큰이 진짜인지 아닌지(예: 비트코인은 단순한 문자열이 아니라 실제 암호화폐의 이름이며, ERC20 토큰이 아니며 가격이 0.045달러보다 훨씬 높은데 최신 LLM이라면 이를 알 수 있습니다) 등에 대해 훨씬 더 풍부한 인간 친화적 설명을 제공할 수 있습니다.

벌써 이 방향으로 나아가기 시작한 프로젝트들이 있습니다. (예: AI를 기본 인터페이스로 사용하는 랭체인 지갑) 제 개인적인 의견으로는 순수한 AI 인터페이스는 다른 유형의 오류 리스크를 증가시키기 때문에 현재로서는 너무 위험할 수 있지만, 기존 인터페이스를 보완하는 AI는 매우 실용화되고 있습니다.

한 가지 언급할 만한 특별한 위험이 있습니다. 아래의 '게임의 규칙으로서의 AI' 섹션에서 자세히 살펴보겠지만, 일반적인 문제는 적대적 머신러닝입니다. 사용자가 오픈소스 지갑 내부의 AI 비서에 액세스할 수 있는 경우, 빌런도 해당 AI 비서에 액세스할 수 있기 때문에 지갑의 방어를 유발하지 않도록 사기를 최적화할 무한한 기회를 얻게 됩니다.

모든 최신 AI는 어딘가에 버그를 가지고 있으며, 모델에 대한 접근 권한이 제한되어 있는 학습 과정에서도 버그를 찾아내는 것은 그리 어렵지 않습니다.

바로 이러한 부분에서 '온체인 마이크로 마켓에 참여하는 AI'가 더 효과적입니다. 개별 AI는 동일한 위험에 취약하지만, 의도적으로 수십 명의 사람들이 지속적으로 반복하고 개선하는 개방형 생태계를 만들 수 있기 때문입니다.

또한, 개별 AI는 폐쇄적이기 때문에 시스템의 보안은 각 플레이어의 내부 작동이 아닌 게임 규칙의 개방성에서 비롯됩니다.

요약: AI는 사용자가 평이한 언어로 무슨 일이 일어나고 있는지 이해할 수 있도록 도와주고, 실시간 튜터 역할을 하며, 실수로부터 사용자를 보호할 수 있습니다. 다만 악의적인 허위 정보 제공자나 사기꾼에게 직접 사용하려고 할 때는 주의해야 합니다.

게임의 규칙이 되는 AI


이제 많은 사람들이 기대하고 있지만 가장 위험하다고 생각하며 가장 조심스럽게 접근해야 할 분야인 AI가 게임 규칙의 일부가 되는 응용 분야에 대해 알아봅시다.

이는 'AI 판사'에 대한 주류 정치 엘리트들의 흥분과 관련이 있으며(예: '세계 정부 정상회의' 웹사이트의 이 기사 참조), 블록체인 애플리케이션에서도 이러한 욕구가 유사하게 나타나고 있습니다.

블록체인 기반 스마트 컨트랙트나 DAO가 주관적인 결정을 내려야 하는 경우(예: 특정 작업물이 고용 계약에서 허용되는지? 체인의 낙관주의 법칙과 같은 자연어 헌법에 대한 올바른 해석은 무엇일까요?), 이러한 규칙을 적용하는 데 도움이 되도록 AI를 컨트랙트나 DAO의 일부로 만들 수 있을까요?

적대적 머신러닝은 바로 이 부분에서 매우 어려운 도전입니다. 그 이유에 대한 기본적인 두 문장의 논거는 다음과 같습니다:

💡
메커니즘에서 핵심적인 역할을 하는 AI 모델이 닫혀 있으면 내부 작동을 확인할 수 없으므로 중앙 집중식 애플리케이션보다 더 나을 것이 없습니다. AI 모델이 개방형인 경우 공격자는 로컬에서 다운로드하여 시뮬레이션할 수 있으며, 모델을 속이기 위해 고도로 최적화된 공격을 설계한 다음 라이브 네트워크에서 재생할 수 있습니다.
적대적 머신러닝 예시 <출처: researchgate.net>

이 블로그를 자주 읽으시는 분들(또는 크립토버스의 주민들)은 이미 저보다 앞서서 이렇게 생각하실지도 모르겠습니다. 우리에게는 멋진 영지식 증명과 다른 정말 멋진 형태의 암호화가 있습니다.

물론 우리는 암호학적 마법을 부려서 공격자가 공격을 최적화할 수 없도록 모델의 내부 작동을 숨길 수 있으며, 동시에 모델이 올바르게 실행되고 있고, 합리적인 기본 데이터 세트에 대한 합리적인 학습 프로세스를 사용하여 구축되었음을 증명할 수 있습니다!

일반적으로 이것은 제가 이 블로그와 다른 글에서 주장하는 사고방식과 정확히 일치합니다. 하지만 AI 관련 계산의 경우에는 크게 두 가지 반대가 있습니다:

  • 암호화 오버헤드: SNARK(또는 MPC 또는...) 내부에서 무언가를 수행하는 것은 '외부에서' 수행하는 것보다 훨씬 덜 효율적입니다. 이미 AI가 매우 계산 집약적이라는 점을 감안할 때, 암호화 블랙박스 내부에서 AI를 수행하는 것이 계산적으로 실행 가능할까요?
  • 블랙박스 적대적 머신러닝 공격: 모델의 내부 작동에 대해 잘 몰라도 AI 모델에 대한 공격을 최적화할 수 있는 방법이 있습니다. 그리고 너무 많은 것을 숨기면 학습 데이터를 선택하는 사람이 포이즌 공격으로 모델을 너무 쉽게 손상시킬 위험이 있습니다.


이 두 가지 모두 복잡한 토끼굴(이상하거나 이해하기 어려운 또는 해결하기 힘든)이므로 차례로 살펴보겠습니다.

암호화 오버헤드


암호화 가젯, 특히 ZK-SNARK나 MPC와 같은 범용 암호화 가젯은 오버헤드가 높습니다. 이더리움 블록을 클라이언트가 직접 검증하는 데는 수백 밀리초가 걸리지만, 이러한 블록의 정확성을 증명하기 위해 ZK-SNARK를 생성하는 데는 몇 시간이 걸릴 수 있습니다.

MPC와 같은 다른 암호화 기기의 일반적인 오버헤드는 더 심각할 수 있습니다. 가장 강력한 LLM은 인간이 단어를 읽는 속도보다 조금 더 빠르게 개별 단어를 출력할 수 있을 뿐 아니라 모델을 훈련하는 데 드는 수백만 달러의 계산 비용은 말할 것도 없고, AI 계산은 이미 비용이 많이 듭니다.

최상위 모델과 훈련 비용이나 매개변수의 수를 훨씬 더 절약하려는 모델 간의 품질 차이는 매우 큽니다. 언뜻 보기에, 이것은 AI를 암호화로 감싸서 보증을 추가하려는 전체 프로젝트에 대해 의심할 만한 충분한 이유입니다.

하지만 다행히도 AI는 매우 특정한 유형의 계산이므로 ZK-EVM과 같은 "비정형" 유형의 계산이 활용할 수 없는 모든 종류의 최적화를 적용할 수 있습니다.

다음 AI 모델의 기본 구조를 살펴보겠습니다.

일반적으로 AI 모델은 대부분 일련의 행렬 곱셈과 ReLU 함수(y = max(x, 0))와 같은 요소별 비선형 연산이 산재되어 있는 행렬 곱셈으로 구성됩니다.

점근적으로 행렬 곱셈은 대부분의 작업을 차지합니다. 두 개의 N*N 행렬을 곱하는 데 시간이 걸리는 반면, 비선형 연산의 수는 훨씬 적습니다. 많은 형태의 암호화가 선형 연산(적어도 모델만 암호화하고 입력은 암호화하지 않는 경우 행렬 곱셈과 같은)을 거의 '무료로' 수행할 수 있기 때문에 이는 암호화에 매우 편리합니다.

암호화 전문가라면 동형 암호화의 맥락에서 비슷한 현상에 대해 이미 들어보셨을 것입니다. 암호화된 암호 텍스트에 덧셈을 수행하는 것은 정말 쉽지만 곱셈은 엄청나게 어렵기 때문에 2009년까지 무제한 깊이로 곱셈을 수행하는 방법을 전혀 알아내지 못했습니다.

ZK-SNARK의 경우, 행렬 곱셈을 증명하는 데 4배 미만의 오버헤드를 보이는 2013년에 나온 이와 같은 프로토콜이 이에 해당합니다. 안타깝게도 비선형 계층의 오버헤드는 여전히 상당하며, 실제로 가장 좋은 구현은 약 200배의 오버헤드를 보여줍니다. 하지만 추가 연구를 통해 이러한 오버헤드를 크게 줄일 수 있다는 희망이 있습니다. Ryan Cao의 이 프레젠테이션에서 GKR을 기반으로 한 최근의 접근 방식과 GKR의 주요 구성 요소가 어떻게 작동하는지에 대한 저의 간단한 설명을 참조하세요.

하지만 많은 애플리케이션에서 우리는 AI의 결과가 올바르게 계산되었다는 것을 증명하는 것뿐만 아니라 모델을 숨기고 싶어합니다. 모델을 분할하여 서로 다른 서버가 각 레이어를 중복 저장하고, 일부 서버가 일부 레이어를 유출하더라도 너무 많은 데이터가 유출되지 않기를 바라는 순진한 접근 방식이 있습니다. 그러나 놀랍도록 효과적인 형태의 특수 다자간 계산도 있습니다.

모델을 비공개로 유지하되 입력을 공개하는 접근 방식 중 하나를 단순화한 다이어그램입니다. 모델과 입력을 비공개로 유지하려면 조금 더 복잡해지기는 하지만 가능합니다(백서 8~9페이지 참조).

두 경우 모두 AI 계산의 가장 큰 부분은 행렬 곱셈이며, 이를 통해 매우 효율적인 ZK-SNARK 또는 MPC(또는 FHE)를 만들 수 있으므로 암호화 상자 안에 AI를 넣는 총 오버헤드는 놀라울 정도로 낮다는 교훈은 동일합니다.

일반적으로 크기가 작음에도 불구하고 가장 큰 병목 현상을 일으키는 것은 비선형 레이어이며, lookup arguments와 같은 최신 기술이 도움이 될 수 있습니다.

블랙박스형 적대적 머신 러닝


이제 또 다른 큰 문제, 즉 모델의 콘텐츠가 비공개로 유지되고 모델에 대한 'API 액세스 권한'만 있는 경우에도 수행할 수 있는 공격의 종류에 대해 알아보겠습니다. 2016년의 논문을 인용합니다:

💡
많은 머신 러닝 모델은 적대적 예제, 즉 머신 러닝 모델이 잘못된 출력을 생성하도록 특수하게 만들어진 입력에 취약합니다. 두 모델이 동일한 작업을 수행하도록 학습되었다면 두 모델의 아키텍처가 다르거나 서로 다른 학습 세트에서 학습된 경우에도 한 모델에 영향을 미치는 적대적 예제는 다른 모델에도 영향을 미치는 경우가 많습니다. 따라서 공격자는 피해자에 대한 정보가 거의 없는 상태에서 자신의 대체 모델을 학습시키고, 대체 모델에 대한 적대적 예시를 만든 다음, 이를 피해자 모델에 전송할 수 있습니다.
'표적 분류기'에 대한 블랙박스 액세스를 사용하여 로컬에 저장된 자체 '추론된 분류기'를 훈련하고 개선하세요. 그런 다음 추론된 분류기에 대해 최적화된 공격을 로컬에서 생성합니다. 이러한 공격은 종종 원래의 표적 분류기에 대해서도 작동하는 것으로 밝혀졌습니다. 다이어그램 출처.

공격하려는 모델에 대한 액세스 권한이 매우 제한적이거나 전혀 없는 경우에도 학습 데이터만 알고도 공격을 수행할 수 있습니다. 2023년 현재 이러한 종류의 공격은 계속해서 큰 문제가 되고 있습니다.

이러한 종류의 블랙박스 공격을 효과적으로 차단하려면 두 가지 작업이 필요합니다:

  1. 모델을 쿼리할 수 있는 사람 또는 항목과 그 양을 실제로 제한하세요. API 액세스가 무제한인 블랙박스는 안전하지 않지만, 매우 제한적인 API 액세스가 있는 블랙박스는 안전할 수 있습니다.
  2. 학습 데이터를 숨기되, 학습 데이터를 생성하는 데 사용된 프로세스가 손상되지 않았다는 확신을 유지하세요.

전자의 경우 가장 많은 성과를 거둔 프로젝트는 아마도 월드코인일 것이며, 그 중 초기 버전(다른 프로토콜 중에서도)을 여기에서 자세히 분석해 보겠습니다.

월드코인은 프로토콜 수준에서 AI 모델을 광범위하게 사용하여 (1) 홍채 스캔을 유사성을 비교하기 쉬운 짧은 '홍채 코드'로 변환하고 (2) 스캔하는 대상이 실제로 사람인지 확인합니다. 월드코인이 사용하는 주요 방어책은 누구든지 AI 모델을 호출할 수 있도록 허용하지 않고, 신뢰할 수 있는 하드웨어를 사용하여 모델이 오브의 카메라로 디지털 서명된 입력만 받도록 하는 것입니다.

이 접근 방식은 효과가 보장되는 것은 아닙니다. 이미 얼굴에 붙이는 물리적 패치나 장신구 형태의 생체 인식 AI에 대한 적대적인 공격이 가능하다는 것이 밝혀졌습니다.

이마에 여분의 물건을 착용하고 탐지를 피하거나 다른 사람으로 가장할 수도 있습니다. 출처.

하지만 모든 방어 수단을 결합하여 AI 모델 자체를 숨기고, 쿼리 수를 크게 제한하고, 각 쿼리를 어떻게든 인증하도록 요구하면 시스템을 안전하게 보호할 수 있을 정도로 적대적인 공격을 어렵게 만들 수 있습니다.

이제 두 번째 문제인 학습 데이터를 어떻게 숨길 수 있을까요? 바로 이 부분에서 "AI를 민주적으로 관리하기 위한 DAO"가 실제로 의미가 있을 수 있습니다.

누가 훈련 데이터를 제출할 수 있는지(그리고 데이터 자체에 어떤 증명이 필요한지), 누가 쿼리를 수행할 수 있는지, 그리고 얼마나 많은 쿼리를 수행할 수 있는지 등의 과정을 관리하는 온체인 DAO를 만듭니다.

그리고 MPC와 같은 암호화 기술을 사용하여 각 개별 사용자의 훈련 입력부터 각 쿼리의 최종 출력에 이르기까지 AI를 생성하고 실행하는 전체 파이프라인을 암호화하면 됩니다.

이러한 DAO는 데이터 제출에 대한 보상이라는 매우 인기 있는 목표를 동시에 충족시킬 수 있습니다.

이 계획은 매우 야심찬 계획이지만, 비현실적일 이유가 몇 가지 있습니다.

  • 이러한 종류의 완전 블랙박스 아키텍처가 기존의 폐쇄적인 "나를 믿어라" 접근 방식에 비해 경쟁력을 갖기에는 암호화 오버헤드가 여전히 너무 높을 수 있습니다.
  • 훈련 데이터 제출 프로세스를 탈중앙화하고 포이즈닝 공격으로부터 보호할 수 있는 좋은 방법이 없는 것으로 판명될 수도 있습니다.
  • 다자간 연산(MPC) 가젯은 참여자들의 담합으로 인해 안전이나 프라이버시 보장이 깨질 수 있으며, 이는 크로스체인 암호화폐 브리지에서 반복적으로 발생하고 있는 문제입니다.

제가 이 섹션을 시작하면서 "AI 재판이나 판단을 하지 마세요, 그건 디스토피아입니다."라는 큰 빨간 경고 문구를 넣지 않은 이유는 무엇일까요?

우리 사회가 이미 소셜 미디어에서 어떤 종류의 게시물과 정치적 의견을 부스트 및 디부스트하거나 심지어 검열하는 알고리즘을 결정하는 책임감 없는 중앙집중식 인공지능 판단에 크게 의존하고 있기 때문이죠.

저는 현 단계에서 이러한 추세를 더 확대하는 것은 상당히 나쁜 생각이라고 생각하지만, 블록체인 커뮤니티가 AI를 더 많이 실험하는 것이 상황을 악화시키는 데 기여할 가능성은 크지 않다고 생각합니다.

사실, 암호화폐 기술이 기존의 중앙화된 시스템을 개선할 수 있는 아주 기본적인 위험도가 낮은 방법이 몇 가지 있는데, 저는 이를 꽤 확신합니다.

한 가지 간단한 기술은 지연된 공개를 통해 검증된 AI입니다. 소셜 미디어 사이트가 AI 기반 게시물 순위를 매길 때, 해당 순위를 생성한 모델의 해시를 증명하는 ZK-SNARK를 게시할 수 있습니다.

예를 들어, 이 사이트는 1년이 지난 후에 AI 모델을 공개하기로 약속할 수 있습니다. 모델이 공개되면 사용자는 해시를 확인하여 올바른 모델이 공개되었는지 확인할 수 있고, 커뮤니티는 해당 모델에 대한 테스트를 실행하여 공정성을 검증할 수 있습니다. 공개가 지연되면 모델이 공개될 때쯤에는 이미 오래된 모델이 될 수 있습니다.

따라서 중앙화된 세계와 비교했을 때, 문제는 우리가 더 잘할 수 있느냐가 아니라 얼마나 더 잘할 수 있느냐입니다. 그러나 탈중앙화 세계에서는 조심해야 할 점이 있습니다.

예를 들어 누군가가 AI 오라클을 사용하는 예측 시장이나 스테이블코인을 구축했는데, 그 오라클이 공격 가능한 것으로 밝혀진다면 엄청난 금액이 한순간에 사라질 수 있습니다.

게임의 목적이 되는 AI


그 누구도 알 수 없는 블랙박스에 해당하는 확장 가능한 탈중앙화 프라이빗 AI를 만드는 위의 기술이 실제로 작동할 수 있다면, 블록체인을 뛰어넘는 유용성을 가진 AI를 만드는 데도 사용될 수 있을 것입니다.

니어 프로토콜 팀은 이를 현재 진행 중인 작업의 핵심 목표로 삼고 있습니다.

이렇게 하는 데에는 아래 두 가지 이유가 있습니다.

  1. 블록체인과 MPC를 조합하여 훈련과 추론 과정을 실행함으로써 '신뢰할 수 있는 블랙박스 AI'를 만들 수 있다면, 시스템이 편향되거나 속임수를 쓸까봐 걱정하는 많은 앱이 혜택을 받을 수 있습니다. 많은 사람들이 우리가 의존하게 될 시스템적으로 중요한 AI에 대한 민주적 거버넌스에 대한 열망해 왔으며, 암호화 및 블록체인 기반 기술은 이를 위한 한 가지 방법이 될 수 있습니다.
  2. AI 안전의 관점에서 볼 때, 이는 자연스러운 킬 스위치가 있는 탈중앙화된 AI를 만드는 기술이 될 수 있으며, 악의적인 행동에 AI를 사용하려는 쿼리를 제한할 수 있습니다.

또한, "더 나은 AI를 만들기 위해 암호화폐 인센티브를 사용하는 것"은 암호화를 완전히 암호화하기 위해 토끼굴에 빠지지 않고도 가능하다는 점도 주목할 필요가 있습니다. 비트텐서와 같은 접근 방식이 이 범주에 속합니다.

결론


블록체인과 AI가 모두 더욱 강력해지면서 두 영역이 교차하는 사용 사례가 점점 더 많아지고 있습니다. 그러나 이러한 사용 사례 중 일부는 다른 사용 사례보다 훨씬 더 합리적이며 훨씬 더 견고합니다.

일반적으로 기본적인 메커니즘은 이전과 비슷하게 설계하되, 개별 플레이어가 AI가 되어 메커니즘이 훨씬 더 미시적인 규모로 효과적으로 작동할 수 있도록 하는 사용 사례가 가장 즉각적이고 유망하며, 쉽게 구현할 수 있습니다.

제대로 구현하기 어려운 것은 블록체인과 암호화 기술을 사용해 '싱글톤'(일부 애플리케이션이 특정 목적을 위해 의존하는 신뢰할 수 있는 단일 탈중앙화 AI)을 만들려는 애플리케이션입니다. 이 애플리케이션은 기능적인 측면에서나 해당 문제에 대한 주류 접근 방식과 관련된 중앙 집중화 위험을 피하는 방식으로 AI 안전성을 개선할 수 있는 가능성이 있습니다.

그러나 기본 가정이 실패할 수 있는 방법도 많기 때문에 특히 가치가 높고 위험이 높은 상황에서 애플리케이션을 배포할 때는 신중하게 접근해야 합니다. 이러한 모든 분야에서 AI의 건설적인 활용 사례에 대한 더 많은 시도를 통해 어떤 것이 진정으로 대규모로 실행 가능한지 확인할 수 있기를 기대합니다.


해당 콘텐츠는 2024년 1월 30일에 비탈릭 부테린의 글을 번역한 콘텐츠입니다. 저는 전문 번역가가 아니기 때문에 오역이 있을 수 있습니다. 또한 본 글은 원저작자의 요청에 따라 불시에 삭제될 수 있습니다. 감사합니다.