BetaAI’s Substack
BetaAI Newsletter
6월 세번째 주 AI 뉴스
0:00
-16:23

6월 세번째 주 AI 뉴스

中 AI 기업, 美 칩 규제 우회를 위한 해외 원정중?

이번주 AI 뉴스 📰

Illustration of a large hand representing China taking US microchips.

中 AI 기업, 美 칩 규제 우회를 위한 해외 원정중?

  • 데이터 해외 원정: 미국의 고성능 AI 칩 제재를 피하기 위해, 중국 기업들이 하드드라이브에 데이터를 담아 말레이시아 등 제3국으로 직접 날아가 AI 모델을 훈련시키고 있음.

  • 美 규제 우회 전략: 이는 미국이 중국으로의 AI 칩 판매 및 밀반입 단속을 강화하자, 규제의 허점을 파고들어 등장한 새로운 우회 전략임.

  • 동남아 허브 부상: 이런 수요 덕에 말레이시아 등 동남아 데이터 센터가 급증하고 있으며, 미국 정부도 이 문제를 인지하고 대응책을 고심 중임.

OpenAI wins $200 million U.S. defense contract

OpenAI, 미 국방부와 2억 달러 규모 AI 계약 체결

  • 미 국방부와 계약: OpenAI가 미 국방부와 2억 달러 규모의 계약을 맺고, 선제적 사이버 방어 등 국가 안보 과제를 해결하기 위한 AI 기술을 제공하기로 했음.

  • 정부 협력 착수: 이번 계약은 OpenAI의 새로운 정부 협력 이니셔티브의 첫 사례이며, 회사는 AI 기술이 무기 개발이나 타인을 해치는 데 사용될 수 없다는 자사 정책을 준수해야 한다고 밝혔음.

  • 정책 선회와 추세: 이는 과거 '군사 및 전쟁' 분야 사용을 금지했던 OpenAI의 정책 선회를 의미하며, 다른 주요 AI 기업들도 국방 분야와 협력을 강화하는 업계 동향을 반영함.

디즈니·유니버설, 'AI 캐릭터 무단 생성' 미드저니 고소

  • 할리우드의 선전포고: 할리우드 거대 기업인 디즈니와 유니버설이 자사의 유명 캐릭터들을 무단으로 복제했다며 AI 이미지 생성 서비스 '미드저니'를 상대로 저작권 침해 소송을 제기했음.

  • 무단 복제 및 도용: 이들은 미드저니가 다스베이더, 슈렉 등 자사 캐릭터 이미지를 무단 생성하고 마케팅에 활용했으며, 시정 요구도 무시했다고 주장함.

  • AI 업계와의 전쟁: 이번 소송은 할리우드와 생성형 AI 업계 간의 첫 주요 법적 다툼으로, 곧 출시될 미드저니의 영상 생성 기능까지 문제 삼으며 향후 귀추가 주목됨.


이번주 AI 논문 📝

AI, 인간의 뇌처럼 사물을 인식하고 개념화한다

  • 인간 같은 개념 형성: 다중모드(multimodal) 대형 언어 모델(LLM)이 수많은 객체 데이터를 학습한 결과, 인간과 매우 유사한 방식으로 사물의 개념과 관계를 표현하는 능력을 갖게 되었음을 발견함.

  • 뇌 활동과 유사성: 특히 AI가 만든 객체 개념 지도는 특정 사물을 인식할 때 활성화되는 인간 뇌의 특정 영역 활동 패턴과 높은 정렬성을 보였음.

  • 인간적 AI의 가능성: 이는 AI가 단순 데이터 처리를 넘어 인간과 근본적으로 유사한 개념적 지식을 형성하고 있음을 시사하며, 더 인간적인 인공 인지 시스템 개발의 가능성을 열어줌.

AI의 '자신감'만으로 성능 대폭 향상시킨다

  • 자신감을 보상으로: 기존 AI 모델 미세조정은 막대한 비용이 드는 인간의 피드백을 필요로 했으나, 이 연구는 AI가 스스로 내놓은 답에 대한 '자신감'을 보상 신호로 활용하는 새로운 강화학습(RLSC) 기법을 제안함.

  • 저비용 고효율 학습: 이 방식은 별도의 정답 데이터나 보상 모델 없이, 극소량의 샘플과 짧은 학습만으로 미세조정을 가능하게 하여 비용과 시간을 획기적으로 줄였음.

  • 수학 능력 대폭 향상: 수학 특화 모델에 이 기법을 적용한 결과, 여러 고난도 수학 벤치마크에서 정확도가 최대 21.7%까지 향상되어, 단순하면서도 확장성 높은 방법론의 가능성을 입증함.

AI에게도 '좋은 나라', '나쁜 나라'가 있다

  • AI의 지정학적 편향: 최신 AI 언어 모델(LLM)이 특정 역사적 사건을 해석할 때, 미국, 중국 등 특정 국가의 관점에 치우치는 상당한 지정학적 편향을 가지고 있음을 확인함.

  • 단순 교정의 한계: '편향되지 않게 답하라'와 같은 단순한 지시어(프롬프트)는 이러한 뿌리 깊은 국가적 서사 편향을 줄이는 데 매우 제한적인 효과만 보였음.

  • 정보 출처의 영향: 또한 AI는 정보 출처로 명시된 국가에 따라 편향성이 증폭되기도 하는 등 민감하게 반응했으며, 연구진은 향후 관련 연구를 위한 데이터셋과 분석 틀을 함께 제공함.


이번주 AI 프로덕트 🎁

MiniMax-M1: 번개 어텐션 기반의 고효율 장문 추론 모델

  • '번개 어텐션' 모델: 하이브리드 전문가 혼합(MoE) 구조에 '번개 어텐션' 기술을 결합한 새로운 오픈소스 모델 '미니맥스-M1'이 공개됨. 이 모델은 100만 토큰의 방대한 컨텍스트를 지원함.

  • 초고속 강화학습: 'CISPO'라는 새로운 강화학습 알고리즘을 도입하여 훈련 효율을 극대화했으며, 512개의 GPU로 3주 만에 훈련을 완료하는 등 비용 효율성을 입증함.

  • 긴 컨텍스트에 강점: 이 모델은 특히 긴 컨텍스트 처리, 소프트웨어 엔지니어링, 도구 활용 분야에서 기존 강력한 모델들과 대등하거나 우수한 성능을 보이며 공개적으로 출시됨.

CoRT: 코드 통합 추론을 위한 효율적인 후처리 훈련 프레임워크

  • CoRT 프레임워크: 대형 추론 모델(LRM)이 복잡한 수학 연산에 외부 코드 도구를 비효율적으로 사용하는 문제를 해결하기 위해, 'CoRT'라는 새로운 후처리(post-training) 훈련 프레임워크를 개발함.

  • 힌트 엔지니어링: 이 프레임워크는 '힌트 엔지니어링' 기법을 통해 모델과 코드 도구 간의 상호작용을 최적화하는 학습 데이터를 자동으로 생성하여 데이터 부족 문제를 해결함.

  • 정확도·효율성 향상: CoRT로 훈련된 모델은 여러 수학 추론 데이터셋에서 정확도가 최대 8% 향상되었고, 토큰 사용량은 최대 50% 감소하여 정확성과 효율성을 모두 크게 개선했음.


Discussion about this episode

User's avatar