Perplexity、DeepSeek R1改良版『R1 1776』を公開 検閲を回避
- NKimetenai
- 2月19日
- 読了時間: 2分
更新日:2月27日
Perplexityは19日に、中国共産党(以下CCP)の検閲を回避したDeepSeek R1改良モデル”R1 1776”をオープンソースとしてWeb上に公開した。これは、Perplexityが提供する初のオープンウェイト*モデルで、Sonar API*経由でも利用可能だ。
DeepSeekは中国のAI企業で、DeepSeek Vシリーズ、DeepSeek R1、その他の蒸留モデルLLMをオープンソースとして公開している。政治的に制限されたリソース環境下で、米AI企業OpenAIの推論AIモデルに対抗できる点が注目された。しかし、DeepSeekのLLMは回答にCCPのプロパガンダや検閲が含まれるため、利用面で問題視されていた。
R1 1776は、オープンソースのDeepSeek R1をベースに、Perplexity AIによるポストトレーニング*を実施してCCPの検閲を排除することに成功したモデルだ。これにより、事実に基づいた偏りのない回答が可能になっている。

そのため、まず専門家がCCPの検閲対象となるデータを収集し、独自の多言語検閲分類器(multilingual censorship classifier)を開発。これにより、複数の言語で検閲対象となる内容を識別した。
手順としては、分類器を用いて検閲対象のユーザー・プロンプトデータ*を収集し、そのデータを使ってDeepSeek R1のポストトレーニングを実施した。 このトレーニングには、NvidiaのNeMo 2.0フレームワーク*を改変したものが使用され、推論能力に影響を与えることなく、従来のR1と全く同等と言えるスコアを実現している。

また、この発表にあわせ、Perplexity CEOのアラヴィンド・スリニヴァス氏(Aravind Srinivas)は、自身のXで今週と来週に各一件ずつ発表があると予告している。文章からは、次回の発表が大きなものになることが期待される。
*オープンウェイト:モデルのパラメータが公開されており、自由に使用・変更・配布できる。
*ポストトレーニング:既存のAIモデルを特定の目的に合わせて追加学習すること。
*プロンプトデータ:トレーニングに利用することを明示的に許可したユーザーのみ。個人を特定できる情報は除外した。
*NeMo 2.0フレームワーク:会話型AIを構築・カスタマイズ・トレーニングするためのツールキッ198。