Market icon

6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?

Market icon

6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?

$187,331 Vol.

Jun 30, 2026
Polymarket

$187,331 Vol.

Polymarket

35%以上

$66,554 Vol.

93%

45%以上

$75,998 Vol.

46%

This market will resolve to "Yes" if the Humanity’s Last Exam leaderboard lists any Anthropic Claude model with a score of at least the specified score by June 30, 2026, 11:59 PM ET. Otherwise, this market will resolve to "No". The resolution source will be the official Humanity’s Last Exam leaderboard https://scale.com/leaderboard/humanitys_last_exam.Humanity's Last Exam, a rigorous benchmark of 2,500 expert-level questions across math, science, and humanities launched by the Center for AI Safety on June 4, tests frontier large language model capabilities with current top scores below 9%—Google's Gemini 1.5 Pro Experimental at 8.9% and OpenAI's o1-preview at 8.8%. Anthropic's Claude 3.5 Sonnet, released June 20, lags at 7.4% on the public leaderboard, reflecting incremental gains but underscoring persistent gaps in reasoning and knowledge synthesis versus competitors. No new Claude model or targeted evaluation announcements have emerged ahead of the June 30 cutoff, leaving trader consensus shaped by this low baseline and the benchmark's design to resist short-term advances. Upcoming resolution hinges on any last-minute submissions, though historical patterns suggest modest shifts at best.

Humanity's Last Exam, a rigorous benchmark of 2,500 expert-level questions across math, science, and humanities launched by the Center for AI Safety on June 4, tests frontier large language model capabilities with current top scores below 9%—Google's Gemini 1.5 Pro Experimental at 8.9% and OpenAI's o1-preview at 8.8%. Anthropic's Claude 3.5 Sonnet, released June 20, lags at 7.4% on the public leaderboard, reflecting incremental gains but underscoring persistent gaps in reasoning and knowledge synthesis versus competitors. No new Claude model or targeted evaluation announcements have emerged ahead of the June 30 cutoff, leaving trader consensus shaped by this low baseline and the benchmark's design to resist short-term advances. Upcoming resolution hinges on any last-minute submissions, though historical patterns suggest modest shifts at best.

Polymarketデータを参照したAI生成の実験的な要約 · 更新日
This market will resolve to "Yes" if the Humanity’s Last Exam leaderboard lists any Anthropic Claude model with a score of at least the specified score by June 30, 2026, 11:59 PM ET. Otherwise, this market will resolve to "No". The resolution source will be the official Humanity’s Last Exam leaderboard https://scale.com/leaderboard/humanitys_last_exam.Humanity's Last Exam, a rigorous benchmark of 2,500 expert-level questions across math, science, and humanities launched by the Center for AI Safety on June 4, tests frontier large language model capabilities with current top scores below 9%—Google's Gemini 1.5 Pro Experimental at 8.9% and OpenAI's o1-preview at 8.8%. Anthropic's Claude 3.5 Sonnet, released June 20, lags at 7.4% on the public leaderboard, reflecting incremental gains but underscoring persistent gaps in reasoning and knowledge synthesis versus competitors. No new Claude model or targeted evaluation announcements have emerged ahead of the June 30 cutoff, leaving trader consensus shaped by this low baseline and the benchmark's design to resist short-term advances. Upcoming resolution hinges on any last-minute submissions, though historical patterns suggest modest shifts at best.

Humanity's Last Exam, a rigorous benchmark of 2,500 expert-level questions across math, science, and humanities launched by the Center for AI Safety on June 4, tests frontier large language model capabilities with current top scores below 9%—Google's Gemini 1.5 Pro Experimental at 8.9% and OpenAI's o1-preview at 8.8%. Anthropic's Claude 3.5 Sonnet, released June 20, lags at 7.4% on the public leaderboard, reflecting incremental gains but underscoring persistent gaps in reasoning and knowledge synthesis versus competitors. No new Claude model or targeted evaluation announcements have emerged ahead of the June 30 cutoff, leaving trader consensus shaped by this low baseline and the benchmark's design to resist short-term advances. Upcoming resolution hinges on any last-minute submissions, though historical patterns suggest modest shifts at best.

Polymarketデータを参照したAI生成の実験的な要約 · 更新日

外部リンクに注意してください。

よくある質問

「6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?」はPolymarket上の3個の結果が可能な予測市場で、トレーダーが何が起こるかに基づいてシェアを売買します。現在のリード結果は「30%以上」で100%、次いで「35%以上」が93%です。価格はコミュニティのリアルタイム確率を反映しています。例えば、100¢で取引されているシェアは、市場がその結果に100%の確率を集合的に割り当てていることを意味します。これらのオッズは継続的に変化します。正しい結果のシェアは市場決済時に各$1で引き換え可能です。

本日現在、「6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?」は$187.3Kの総取引量を生み出しています(Jan 30, 2026のマーケット開始以来)。この取引活動レベルはPolymarketコミュニティの強い関与を反映し、現在のオッズが幅広い市場参加者によって形成されていることを保証します。このページで直接、ライブの価格変動を追跡し、任意の結果で取引できます。

「6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?」で取引するには、このページに記載されている3個の利用可能な結果を閲覧します。各結果には市場の暗示確率を表す現在の価格が表示されています。ポジションを取るには、最も可能性が高いと思う結果を選び、「はい」で支持するか「いいえ」で反対するかを選択し、金額を入力して「取引」をクリックします。選んだ結果が市場決済時に正しければ、「はい」のシェアは各$1を支払います。正しくなければ$0です。決済前にいつでもシェアを売却できます。

「6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?」の現在のフロントランナーは「30%以上」で100%であり、市場がこの結果に100%の確率を割り当てていることを意味します。次に近い結果は「35%以上」で93%です。これらのオッズはトレーダーがシェアを売買するにつれてリアルタイムで更新されます。頻繁に確認するか、このページをブックマークしてください。

「6月30日までにHumanity's Last ExamのAnthropic Claudeスコアは?」の決済ルールは、各結果が勝者と宣言されるために何が起こる必要があるかを正確に定義しています。これには結果を決定するために使用される公式データソースも含まれます。このページのコメント上にある「ルール」セクションで完全な決済基準を確認できます。取引前にルールを注意深く読むことをお勧めします。