top of page

Perplexity、DeepSeek R1改良版『R1 1776』を公開 検閲を回避

  • 執筆者の写真: NKimetenai
    NKimetenai
  • 2月19日
  • 読了時間: 2分

更新日:2月27日

Perplexityは19日に、中国共産党(以下CCP)の検閲を回避したDeepSeek R1改良モデル”R1 1776”をオープンソースとしてWeb上に公開した。これは、Perplexityが提供する初のオープンウェイト*モデルで、Sonar API*経由でも利用可能だ。


DeepSeekは中国のAI企業で、DeepSeek Vシリーズ、DeepSeek R1、その他の蒸留モデルLLMをオープンソースとして公開している。政治的に制限されたリソース環境下で、米AI企業OpenAIの推論AIモデルに対抗できる点が注目された。しかし、DeepSeekのLLMは回答にCCPのプロパガンダや検閲が含まれるため、利用面で問題視されていた。


R1 1776は、オープンソースのDeepSeek R1をベースに、Perplexity AIによるポストトレーニング*を実施してCCPの検閲を排除することに成功したモデルだ。これにより、事実に基づいた偏りのない回答が可能になっている。


Perplexity LabsのAI『R1-1776』と『DeepSeek-R1』の比較。R1-1776は天安門事件について詳細に回答し、DeepSeek-R1は回答を拒否している。
「1989年に天安門広場で何が起こったのか」という質問に対する回答の比較。R1 1776(左)は歴史的事実を回答できている。

そのため、まず専門家がCCPの検閲対象となるデータを収集し、独自の多言語検閲分類器(multilingual censorship classifier)を開発。これにより、複数の言語で検閲対象となる内容を識別した。

手順としては、分類器を用いて検閲対象のユーザー・プロンプトデータ*を収集し、そのデータを使ってDeepSeek R1のポストトレーニングを実施した。 このトレーニングには、NvidiaのNeMo 2.0フレームワーク*を改変したものが使用され、推論能力に影響を与えることなく、従来のR1と全く同等と言えるスコアを実現している。


Perplexity LabsによるAIモデル『R1 1776』と『DeepSeek-R1』のベンチマーク比較表。内部評価(Internal Benchmarks)、MMLU、DROP、MATH-500、AIME 2024の各指標を比較し、R1 1776はAIME 2024スコアで優位性を示している。
各種ベンチマークの比較。僅かなスコアの違いはあるが、誤差と言える。

また、この発表にあわせ、Perplexity CEOのアラヴィンド・スリニヴァス氏(Aravind Srinivas)は、自身のXで今週と来週に各一件ずつ発表があると予告している。文章からは、次回の発表が大きなものになることが期待される。


*オープンウェイト:モデルのパラメータが公開されており、自由に使用・変更・配布できる。

*ポストトレーニング:既存のAIモデルを特定の目的に合わせて追加学習すること。

*プロンプトデータ:トレーニングに利用することを明示的に許可したユーザーのみ。個人を特定できる情報は除外した。

*NeMo 2.0フレームワーク:会話型AIを構築・カスタマイズ・トレーニングするためのツールキッ198。

bottom of page