Ada Lovelace世代の現行最上位モデルに位置する「RTX 4090」をベンチマークしました。
先代の「RTX 3090」との性能差はもちろん、配信者に嬉しいAV1エンコードや、AI絵師が重宝する強烈な計算性能など。いろいろと詳しく調べます。
(公開:2022/10/26 | 更新:2022/10/26)
この記事の目次
「GeForce RTX 4090」の仕様とスペック
GPU | RTX 4090 | RTX 3090 |
---|---|---|
プロセス | 5 nm製造 : TSMC | 8 nm製造 : Samsung |
シェーダー数CPUのコア数に相当 | 16384 | 10496 |
RTコア数レイトレ用の特化コア | 128 | 82 |
ブーストクロック | 2520 MHz | 1695 MHz |
VRAM | GDDR6X 24 GB | GDDR6X 24 GB |
理論性能(FP32) | 82.58 TFLOPS | 35.58 TFLOPS |
SLI対応 | – | 対応 |
PCIe | PCIe 4.0 x16 | PCIe 4.0 x16 |
TDP | 450 W | 350 W |
補助電源 | 16-pin | 12-pin |
MSRP | $ 1599 | $ 1499 |
参考価格 | 298000 円 | 176300 円 |
発売価格 | 289300 円 | 212278 円 |
発売 | 2022/10/12 | 2020/9/24 |
GPU | RTX 4090 | RTX 3090 |
---|---|---|
世代 | Ada Lovelace | Ampere |
プロセス | 5 nm製造 : TSMC | 8 nm製造 : Samsung |
トランジスタ数 | 763.0 億 | 283.0 億 |
ダイサイズ | 608 mm2 | 628 mm2 |
シェーダー数CPUのコア数に相当 | 16384 | 10496 |
TMU数Texture Mapping Unitのこと | 512 | 328 |
ROP数Render Output Unitのこと | 176 | 112 |
演算ユニット数 | 128 | 82 |
Tensorコア数機械学習向けの特化コア | 512 | 328 |
RTコア数レイトレ用の特化コア | 128 | 82 |
L1キャッシュ演算ユニットあたり | 128 KB | 128 KB |
L2キャッシュコア全体で共有 | 72.0 MB | 6.0 MB |
L3キャッシュコア全体で共有 | – | – |
クロック周波数 | 2235 MHz | 1395 MHz |
ブーストクロック | 2520 MHz | 1695 MHz |
VRAM | GDDR6X 24 GB | GDDR6X 24 GB |
VRAMバス | 384 bit | 384 bit |
VRAM帯域幅 | 1008 GB/s | 936.2 GB/s |
理論性能(FP32) | 82.58 TFLOPS | 35.58 TFLOPS |
SLI対応 | – | 対応 |
PCIe | PCIe 4.0 x16 | PCIe 4.0 x16 |
TDP | 450 W | 350 W |
補助電源 | 16-pin | 12-pin |
MSRP | $ 1599 | $ 1499 |
参考価格 | 298000 円 | 176300 円 |
発売価格 | 289300 円 | 212278 円 |
発売 | 2022/10/12 | 2020/9/24 |
「RTX 4090」のスペックをざっくり表現するなら、ありきたりな言葉ですが「怪物(モンスター)」でしょうか。
GeForceの最新世代Ada Lovelace(AD世代)では、従来のSamsung 8 nmプロセスから一気に2段階も進んでいる「TSMC 5 nm(TSMC 4N)」を採用し、設計規模を大幅に拡張しています。

RTX 3090が約283億トランジスタに対して、RTX 4090ではおよそ2.8倍にあたる約763億トランジスタを搭載。ポラックの法則に基づき、RTX 3090とRTX 4090の性能差は1.6~1.7倍程度(√2.8:約1.67)を見込めます。
プロセス | トランジスタ密度 |
---|---|
TSMC 5 nm | 137.6 MTr / mm2 |
Samsung 8 nm | 44.6 MTr / mm2 |
トランジスタ数を大幅に増やしながらも、TSMC 5 nmプロセスの高い密度に支えられ、チップ面積は増えるどころか628 mm²から608 mm²へ約3%の小型化です。
チップ面積の小型化により、ウェハ1枚から取れるチップの量が増え、結果的に1枚あたりの製造コストも抑えられます。しかし、最先端プロセスはそもそもの製造コストが高騰しているため、MSRPは100ドル上がって1599ドルです。
100ドルの値上げは多いように思えるかもしれませんが、率にするとたった6.7%に過ぎません。NVIDIAはRTX 4090で最大4倍のゲーミング性能をアピールしているため、6.7%の値上げでもコストパフォーマンスは圧倒的です。
RTX 40シリーズで進化した技術的ポイント
- フレームレートを爆増させる「DLSS 3.0」(RTX 40シリーズ解説記事)
Ada Lovelace世代のRTX 40シリーズでは、データセンター向けのHopper世代ですでに導入済みの「第4世代Tensor Core」を搭載します。
極めて強力な演算性能を持つ第4世代Tensor Coreのパワーにより、AI(機械学習)によるフレーム生成機能をそなえた「DLSS 3.0」が利用可能に。
従来のDLSS 2.xは高画質なアップスケーリングで、画質を維持したままフレームレートを稼ぐ機能でした。今回のDLSS 3.0から、高画質なアップスケーリングに加えて、AIによるフレーム生成でフレームレートを底上げします。
つまり、もともと存在しないフレームをTensor Coreを使って自動生成してフレームレートを水増ししてしまうアプローチです。
原理的にフレーム遅延が発生して入力遅延が増加するため、競技性が求められるFPSゲームでは実用性がありません(※フレームレートが伸びても入力遅延が伸びてしまっては意味がない)。
一方で、Flight Simulator 2021やサイバーパンク2077など。画質重視のオフゲーをプレイする場合は猛威を振るう可能性が高いです。
- 第8世代NVEncエンコーダーで「AV1」に対応(RTX 40シリーズ解説記事)
今やゲーム配信は、グラフィックボードのポピュラーな使い方の一つです。
もともと高速かつ高画質だった第7世代NVEncエンコーダーを進化させ、RTX 40シリーズから第8世代NVEncエンコーダーをなんと2基(デュアル)搭載します。
従来のH.264やHEVC形式でのゲーム配信はさらに高速化し、配信中のゲームフレームレートも下がりにくく改善されます。ゲーミングモニターを使いながら配信するFPSゲーマーにとって非常に重要です。
さらに、H.264やHEVCよりも少ないビットレートで高い画質を維持できる「AV1コーデック」も対応。ネットワーク環境やストレージの容量が貧弱な環境でも、高画質なゲーム配信が可能に※。
※RTX 4090を買うような人は、ネットワークもストレージ環境も強そう・・・というツッコミは無しで。
GPU | RTX 4090 | RTX 3090 | RX 6950 XT |
---|---|---|---|
世代 | Ada Lovelace | Ampere | RDNA 2.0 |
L1キャッシュ演算ユニットあたり | 128 KB | 128 KB | 128 KB |
L2キャッシュコア全体で共有 | 72.0 MB | 6.0 MB | 4.0 MB |
L3キャッシュコア全体で共有 | – | – | 128.0 MB |
- 大容量L2キャッシュで効率アップ(RTX 40シリーズ解説記事)
RTX 4090では、チップ面積の約14%を費やして、72 MBもの大容量L2キャッシュを増設。レイテンシが遅く実効レートを稼ぎづらいL3※ではなく、実用上のメリットをきちんと期待できるL2キャッシュを72 MBです。
※Radeon RX 6000シリーズの「Infinity Cache」が該当します。個人的には “なんちゃって大容量キャッシュ” と呼ばせてもらってます。
ある程度GPUのスペックを読める人なら、RTX 4000シリーズはシェーダーの規模や理論性能の割に、VRAMのバス幅(VRAM帯域幅)が狭いと指摘するでしょう。
NVIDIAはL2キャッシュの大幅な増設により、キャッシュヒット率を最大50%改善し、VRAM帯域幅の実効値をおよそ2倍に拡張します。
VRAM帯域幅はRTX 3090(936 GB/s)からRTX 4090(1008 GB/s)で約8%しか増えていませんが、L2キャッシュ大増量のおかげで実質的に2 TB/s近い帯域幅を実現します。
Radeon RX 6000(RDNA 2.0世代)も、L3キャッシュの大増量(Infinity Cache)で同じようなアプローチを取っていますが、残念ながらL3ではキャッシュヒット率が悪く4Kゲーミングでの性能劣化が顕著でした。
RTX 40シリーズはL3ではなく、L2キャッシュの大増量です。4Kゲーミングでの性能劣化はおそらく起きないでしょう。

「RTX 4090」の性能をベンチマーク

テスト環境 「ちもろぐ専用ベンチ機(2022)」 | ||
---|---|---|
![]() | Core i9 13900K24コア32スレッド | |
![]() | NZXT Kraken X63280 mm簡易水冷クーラー | |
![]() | ASUS TUF GAMINGZ690-PLUS WIFI D4 | |
![]() | DDR4-3200 16GB x2使用メモリ「Elite Plus UD-D4 3200」 | |
![]() | INNO3D GEFORCE RTX 4090 X3 OC | |
![]() | NVMe 1TB使用SSD「Samsung 970 EVO Plus」 | |
![]() | 1200 W(80+ Platnium)使用モデル「Toughpower iRGB PLUS」 | |
![]() | Windows 11 Pro検証時のバージョンは「21H2」 | |
ドライバ | NVIDIA 522.25 | |
ディスプレイ | 3840 x 2160@144 Hz使用モデル「DELL G3223Q」 |
「RTX 4090」をテストするPCスペックをまとめました。
CPUにゲーミング性能最高峰の「Core i9 13900K」を採用、メモリはDDR4-3200(ネイティブ)の容量32 GBを使っています。テスト時のグラフィックドライバはRTX 4090に正式対応する「522.25」です。
検証機材:INNO3D GEFORCE RTX 4090 X3 OC

- INNO3D GEFORCE RTX 4090 X3 OC(代理店の製品ページ)
今回のテストで使用するグラフィックボードは「INNO3D GEFORCE RTX 4090 X3 OC」です。INNO3Dの国内代理店である株式会社アイティーシー様より、レビュー用に貸出してもらいました。
貸出元のアイティーシーから、レビュー内容に対して特に指定はなかったので安心してください(一応確認をしたところ本当に指定なしでした)。
INNO3Dは、日本国内だとELSAへのOEM供給などで知られる有名なAIB(アドインボードパートナー)で、まっとうな品質のオリジナルファンモデルを製造しています。
株式会社アイティーシーによる製品保証期間は「2年」です。

全長336 mm、奥行きが145 mm、厚み60 mm(実測)の3スロット占有です。TGP:600 Wを想定した巨大なボード設計で、実際には450 W程度しか消費しないRTX 4090を余裕で冷やします。

Lenovo RTX 3090 OEMと並べると、INNO3D GEFORCE RTX 4090 X3 OCの異様なまでの巨大さが分かります。
なお、この巨大な設計はINNO3Dに限った仕様ではなく、他社のオリジナルファンモデルも同じかそれ以上に大きいです。比較的コンパクトなサイズで済むのは、簡易水冷ユニットを搭載したリキッドモデルに限られます。

電源供給コネクタは「16 pin※」ですが、一般的なPCIe 8 pinに変換するケーブルが付属します。容量850~1000 Wの電源ユニットで問題なく使えるユーザーフレンドリーな仕様です。
※16 pin 12VHPWR:規格上の最大給電能力はおよそ662 Wを推定。1 pinあたり9.2 Aの許容電流値で、16 pinのうち6 pinが12 V給電を行うため、合計出力は662 Wと計算できます。従来のPCIe 8 pinより1 pinあたりの許容電流値が3.8 Aも低く、少々危険を感じなくもない・・・です。
大電流によるケーブルの発熱を気にする方は、PCIeケーブルの線径が適正な「Corsair RM1000x」や「XPG Core Reactor」を推奨します。
線径が18 AWGと細い場合がある電源ユニットは、二股ケーブルを使わずすべて別々のケーブルで接続しましょう(例:SeasonicやSuperFlowerの一部電源)。

RTX 4090のゲーミング性能
今回のちもろぐ版グラフィックボードレビューでは、以下2つのベンチマークと11個のゲームタイトルを使って、「RTX 4090」のゲーム性能を詳しくテストしました。
- 3DMark(FireStrike / TimeSpy / Port Royaleを使用)
- VRMark(Orange / Cyan / Blueすべて使用)
- FF14 : 暁月のフィナーレ
- FINAL FANTASY XV
- Apex Legends(ベンチマークまとめ)
- Cyberpunk 2077(ベンチマークまとめ)
- Fortnite : Battle Royale(ベンチマークまとめ)
- エルデンリング(ベンチマークまとめ)
- 原神(ベンチマークまとめ)
- Overwatch 2
- Forza Horizon 5
- Microsoft Flight Simulator(ベンチマークまとめ)
- Minecraft RTX
今回のレビューは以上11タイトルです。
定番ベンチマーク:3DMark
「3DMark」はグラフィックボード用の定番ベンチマークです。グラボの性能をざっくりとスコア化(Graphics Score)して、性能を分かりやすく比較できます。

DX11で動作するフルHD向けベンチマーク「FireStrike」では、RTX 4090は約62700点です。高いスコアですが、RTX 3090から約1.35倍しか伸びていません。
FireStrikeだとGPU負荷が軽すぎて、性能を発揮できないようです。

DX12で動作する、WQHD向けかつ比較的新しいゲーム向けの「TimeSpy」では、約35700点を記録します。RTX 3090から一気に1.86倍も高い圧倒的なスコアです。
他のグラフィックボードとベンチマークスコアの比較をしたい方は、↑こちらのグラボ性能まとめ表も参考にどうぞ。
VRゲーム性能:VRMark
日本はヨーロッパ圏を超えるVRゲーム大国でして、VRゲームのためにグラボを求める人も少しずつ増えています。VRゲーム向けの定番ベンチマーク「VRMark」を使って、RTX 4090のVRゲーム性能を検証します。

「Orange Room」はVRMarkで一番軽い(HTC ViveまたはOculus Riftの動作チェック的な)テストです。グラフを見て分かる通り、基本的にOrange Roomの性能は440 fps前後で頭打ちです。

「Cyan Room」はDX12で動作するVRベンチマークで、2番目に重たいです。RTX 4090は平均500 fps台に突入し、RTX 3090との性能差は約16%です。

5K解像度(5120 x 2880)で動作する重量級VRベンチマーク「Blue Room」では、RTX 4090が平均260 fpsを叩き出し、RTX 3090に対してほぼダブルスコアの性能差(約1.93倍)です。

【1920 x 1080】フルHDゲーミングの性能

テストした10個のゲームの検証データを平均化して、RTX 4090のフルHD(1920 x 1080)における平均パフォーマンスをグラフにまとめました。
RTX 4090のフルHDゲーム性能は「平均198.7 fps(下位3%:149.8 fps)」です。

従来のRTX 3090と比較すると、性能差は約24%とさえない結果に。原因はCPUボトルネックです。
フルHDゲームだとGPU使用率と消費電力がそれほど上昇せず、完全にRTX 4090のパワーを発揮できませんでした。Core i9 13900Kを持ってしてもボトルネックが発生するほど、RTX 4090の性能に底が見えないです。
RTX 4090平均フレームレート最低フレームレート(下位3%)
フルHDゲーム(1920 x 1080)における、検証したそれぞれのデータはこちら↑のスライドをじっくり見てください。
基本的にRTX 4090はRTX 3090を上回る性能ですが、ゲームによってRTX 3090とほとんど性能差が出なかったり、逆にApex LegendsやFF14のように、1.5~1.7倍もの圧倒的な性能差が出るゲームもありました。
CPUボトルネックが出づらいように設計されているゲームなら、フルHDでもRTX 4090の持つ実力を発揮できる可能性が高いです。

【2560 x 1440】WQHDゲーミングの性能

テストした10個のゲームの検証データを平均化して、RTX 4090のWQHD(2560 x 1440)における平均パフォーマンスをグラフにまとめました。
RTX 4090のWQHDゲーム性能は「平均182.7 fps(下位3%:137.2 fps)」です。

RTX 4090とRTX 3090でWQHD性能を比較すると、性能差は約37%に達します。フルHDより若干マシですが、やはりCPUボトルネックの影響がハッキリと見て取れます。
ゲームによってはGPU使用率が50%にすら達しなかったため、CPUボトルネックは明らか・・・。比較的GPU負荷が重たいはずのWQHDゲーミングで、CPUボトルネックが発生するほどの性能はかなり驚異的です。
RTX 4090平均フレームレート最低フレームレート(下位3%)
WQHDゲーム(2560 x 1440)における、検証したそれぞれのデータはこちら↑のスライドをじっくり見てください。
フルHDより性能差が大きく出るゲームが増えています。たとえばApex Legendsでは約1.6倍もフレームレートが高く、240 HzのWQHDモニターの運用が現実的です。
Apex以外のタイトルだとForza Horizon 5が約1.5倍、Overwatch 2が約1.6倍、Cyberpunk 2077が約1.56倍と。GPUに負荷がかかるように設計されたゲームにおいて、RTX 3090を完全に打ち負かしています。
平均値でみてしまうと37%と地味な伸び幅に収まりますが、重要なのは個別のデータです。特に、自分がよくプレイしているゲームや、プレイする予定のゲームでどれほど性能が伸びているかに注目してください。

【3840 x 2160】4Kゲーミングの性能
いよいよRTX 4090で多くのコアゲーマーが期待しているであろう「4Kゲーミング性能」を確認します。

テストした10個のゲームの検証データを平均化して、RTX 4090の4K(3840 x 2160)における平均パフォーマンスをグラフにまとめました。
RTX 4090の4Kゲーム性能は「平均140.7 fps(下位3%:111.6 fps)」です。

RTX 4090とRTX 3090で4Kゲーム性能を比較すると、両者の性能差はなんと60%です。なお、消費電力を300 Wに制限した状態でも、RTX 3090から約1.5倍の性能を発揮します。
RTX 3090とほぼ同じ消費電力で、ゲーミング性能は平均1.5倍、ワットパフォーマンスは大幅に改善されています。
なお、GPUに負荷がかかりづらいゲームでは、依然としてCPUボトルネックらしき症状が出てしまいます。今までの常識だと、4KゲーミングでCPUボトルネックが生じる例は極めて稀でした。
しかしRTX 4090の圧倒的な性能を相手にすると、ゲーミング最強CPUのCore i9 13900Kですら手に余る状況です。
RTX 4090平均フレームレート最低フレームレート(下位3%)
4Kゲーム(3840 x 2160)における、検証したそれぞれのデータはこちら↑のスライドをじっくり見てください。
全体的にRTX 3090との性能差が出やすいです。Apex Legendsで約1.8倍、Cyberpunk 2077で約1.65倍、エルデンリングで約1.5倍などなど。多くのゲームタイトルで1.5倍前後の性能アップを確認できます。
Overwatch 2にいたっては約1.8倍も性能が伸びています。ただし、Flight Simulator 2021はCPUボトルネックの影響で、約1.4倍しか伸びなかったです(※後ほど解説するDLSS 3.0で大化けしますが)。
おおむね「4K 144 Hzゲーミングモニター」で高画質なゲームプレイするのに十分な性能です。従来のRTX 3090では、画質を妥協しなければ100 fps以上が困難でしたが、RTX 4090なら最高画質で100 fps超えを叩き出します。

RTX 4090のレイトレとDLSSを試す
フレームレートを底上げする「DLSS 3.0」

「NVIDIA DLSS(Deep Learning Super Sampling)」は、GPU負荷が重たくフレームレートを維持しづらい4K以上の高解像度において、100 fps超えを出すために開発されたアップスケーリング技術です。
たとえば、高画質なDLSSモードではゲームをいったんフルHDでレンダリングしてから、機械学習(Deep Learning)の技術を使って4K相当にアップスケーリングします。

DLSSは低解像度のフレームを高解像度にアップスケーリングする技術
フルHDでレンダリングして、DLSSで4Kにアップスケーリング。この流れならフルHD並のフレームレートを出しつつ、実際にプレイヤーが見ている画面では4K相当の画質が表示されるシステムです。
初めてDLSSが登場した頃は、アップスケーリングの品質に問題があり見向きもされない技術でしたが、「DLSS 2.1」からネイティブ4Kに劣らないクッキリ明瞭な4Kアップスケーリングが可能に。
「4Kで100 fps超え」がグッと現実的になるのを多くのゲーマーが体感する瞬間でした。ライバルのAMDも危険を察知したのか、DLSSに対抗するべく「AMD FSR」をリリースしています。

Ada Lovelace世代(RTX 40シリーズ)では、FP8演算に対応した第4世代Tensor Coreの導入により、機械学習によるアップスケーリングをさらに高いレベルへパワーアップ。
従来のDLSS 2.xと同等のアップスケーリング品質に加えて、「Frame Generation(フレーム生成)」機能を導入します。

フレーム生成機能は文字通り、機械学習を使って2枚のフレームに挟まるフレームを生成して補完する技術です。ありもしないフレームを自動で生成して挿入するため、確実にフレームレートを改善できます。

DLSS 3.0のフレーム生成に対応している「Flight Simulator 2021(ベータ版)」で、フレーム生成をテストした結果がこちら。
DLSS:バランスのみだと平均60 fpsを少々上回る程度ですが、フレーム生成を有効化すると一気に跳ね上がって平均154 fpsです。
Flight Simulator 2021のようにCPUボトルネックが出やすいゲームでも、DLSS 3.0のフレーム生成ならGPU側で処理が完結するため、CPUボトルネックに関係なくフレームレートを稼げます。


サイバーパンク2077は残念ながらフレーム生成にまだ対応していません。それでもDLSS自体の効果は非常に大きく、平均60 fpsをあっさり超えて平均90 fps台へ突入します。

フォートナイトもまだフレーム生成に対応していないですが、DLSS自体の効果はハッキリと確認できます。
DLSSなしだと平均140 fps前後が、DLSS:バランスを有効化すると、ほぼ1.5倍の平均219 fpsまで跳ね上がります。
- A Plague Tale: Requiem
- Atomic Heart
- Black Myth: Wukong
- Bright Memory: Infinite
- Chernobylite
- Conqueror’s Blade
- Cyberpunk 2077
- Dakar Desert Rally
- Deliver Us Mars
- Destroy All Humans! 2 – Reprobed
- Dying Light 2 Stay Human
- F1 22
- F.I.S.T.: Forged In Shadow Torch
- Frostbite Engine
- HITMAN 3
- Hogwarts Legacy
- ICARUS
- Jurassic World Evolution 2
- Justice
- Loopmancer
- Marauders
- Marvel’s Spider-Man Remastered
- Microsoft Flight Simulator
- Midnight Ghost Hunt
- Mount & Blade II: Bannerlord
- Naraka: Bladepoint
- NVIDIA Omniverse
- NVIDIA Racer RTX
- PERISH
- Portal with RTX
- Ripout
- S.T.A.L.K.E.R. 2: Heart of Chornobyl
- Scathe
- Sword and Fairy 7
- SYNCED
- The Lord of the Rings: Gollum
- The Witcher 3: Wild Hunt
- THRONE AND LIBERTY
- Tower of Fantasy
- Unity
- Unreal Engine 4 & 5
- Warhammer 40,000: Darktide
2022年10月時点、上記の42タイトルがDLSS 3.0に対応する予定です。

第3世代RTコアで高性能化した「レイトレ」

レイトレーシング(DXR)の性能をテストする「3DMark Port Royale」のベンチマーク結果です。
RTX 4090はなんと25000点を超え、RTX 3090からほぼ2倍近い性能アップを実現。300 W制限時のスコアは約23000点で、同じ300 WのRTX 3090より約1.8倍も高性能です。
では、実際にレイトレに対応したゲームで4Kレイトレゲーミングを試します。

Cyberpunk 2077で、レイトレ:ウルトラモードを有効化すると、RTX 4090ですら平均40 fpsがやっとです。
やはりレイトレはDLSSを前提とした機能で、DLSSなしのネイティブ4Kで動かすのはまだまだGPU側の性能が足りていません。

Forza Horizon 5では、レイトレを有効化しても軽快に動作します。RTX 4090は平均140 fpsを叩き出し、RTX 3090から約1.7倍もフレームレートを伸ばします。

フォートナイトはレイトレがかなり重たいです。
RTX 3090は平均わずか36 fpsしか出せないですが、RTX 4090は約1.9倍の平均69 fpsまで伸びています。
「DLSS」と「レイトレ」で4Kゲーミング
レイトレとDLSSどちらも対応しているゲームで、4Kレイトレゲーミングの実用性をテストします。

レイトレ単体だと60 fpsを維持できなかったCyberpunk 2077も、DLSS:バランスを有効化すると平均77 fpsまで改善します。RTX 3090との性能差はなんと1.8倍です。

レイトレ単体でギリギリ平均60 fps台のフォートナイトも、DLSS:バランスを入れると一気にフレームレートが底上げされ、平均120 fps台へ大幅な性能アップ。
RTX 3090との性能差は約1.6倍です。

最後はMinecraft Windows 10版で、レイトレに対応したマップ「NEON DISTRICT RTX」を使ってテスト。
残念ながらGPU使用率がほとんど伸びず、フレームレートは平均60 fps前後にとどまります。RTX 3090との性能差もわずか16%とさえない結果に。
RTX 4090のクリエイティブ性能
GPU | RTX 4090 | RTX 3090 |
---|---|---|
シェーダー数CPUのコア数に相当 | 16384 | 10496 |
ブーストクロック | 2520 MHz | 1695 MHz |
VRAM | GDDR6X 24 GB | GDDR6X 24 GB |
理論性能(FP32) | 82.58 TFLOPS | 35.58 TFLOPS |
NVIDIA GeForceシリーズはゲーミングだけでなく、クリエイティブ性能も優れています。
秒速1 TB超えの高帯域かつ24 GBのVRAM容量と、約16000コアの圧倒的なシェーダーにより、効率よく高い演算性能を発揮できる設計です。
加えてNVIDIAプラットフォームでは無償で使えるCUDA ToolkitやcuDNN SDKなど、クリエイターや研究者向けのライブラリも数多く用意されており、環境が整っている点も大きなメリット。
さっそく定番ベンチマークのGPUレンダリング(Blender 3.3.0)から確認します。
GPUレンダリング

言うまでもなく、約16000シェーダーを備えるRTX 4090が圧倒的なレンダリング性能です。Blender 3.3.0のスコアは約6000点から、ほぼ2倍の約12000点台に伸びています。
わずか100ドル高いだけのRTX 4090は、RTX 3090の2倍も高速にレンダリングを終えられます。処理時間あたりのコストパフォーマンスは約1.9倍です。
画像のアップスケーリング(4倍)
AI(機械学習)を用いた画像のアップスケーリングをテストします。シェアウェアだとTopaz Gigapixel AIが有名ですが、今回は無料で使える「RealESRGAN x4」を使って、画像の4倍超解像を試しました。

512 x 512 pxの4倍アップスケーリングは1枚あたり2.7秒です。処理時間が25%短縮され、性能差は約1.33倍です。

4082 x 2778 pxを4倍アップスケーリング(16328 x 11112 px)すると、RTX 4090が64.4秒、RTX 3090が87.5秒でした。処理時間が26%短縮、性能差は約1.36倍です。

アップスケーリングの結果もおおむね良好です。予想以上にうまくアップスケーリングできてしまうため、Pixiv Fanbox限定で高解像度版を公開している絵師への影響が懸念されます・・・。
二次元イラストの自動生成(AI絵師)

次は「AI絵師」で世界的なトレンドになっている「Stable Diffusion」を使って、二次元イラストの生成をテストします。
学習ステップは50、シード値はランダム(※固定 or ランダムでほぼ性能差が出なかったため)、学習データセットに「wd-v1-3-full.ckpt」を使用します。

512 x 512 pxの生成は1枚あたり2.4秒でした。RTX 3090だと3.8秒かかります。RTX 4090の方が約37%短く、性能差は約1.58倍です。

768 x 1024 pxの生成は1枚あたり9.7秒です。RTX 3090だと15.5秒も掛かってしまいます。RTX 4090が約37%高速、性能差は約1.6倍です。

さらに大きい1024 x 1024 pxの生成は1枚あたり15.4秒でした。RTX 4090が41%も処理が短く、性能差は約1.69倍に。
やはりシェーダー規模が約1.6倍も大きく、第4世代Tensor Coreを搭載しているRTX 4090の方が「AI絵師」に最適です。ただ、強化されたTensor CoreがStable Diffusionで機能しているかどうかは不明です。
結果を見る限り、シェーダー規模が伸びた分だけ処理性能が伸びているだけで、強化されているらしいTensor Core(データセンター向けのHopper世代と同等コア)の恩恵はやや不透明に見えます。
機械学習(TensorFlow)ベンチマーク

AnacondaプロンプトでTensor Flow 2をロードして、kerasパッケージの「手書き文字の識別トレーニング(MNIST)」を実行します。20 epochの学習にかかった時間が速いほど高性能です。
RTX 4090は6.66秒で完了し、RTX 3090は約40%遅い11.03秒もかかりました。処理時間の差は約1.66倍で、約1.6倍に増えたシェーダー数がそのまま処理性能に反映されている様子です。

RTX 4090の動画エンコード性能
世代 | Ada Lovelace | Ampere |
---|---|---|
NVEncエンコーダー | 第8世代(デュアル) | 第7世代 |
NVEncデコーダー | 第5世代 | 第5世代 |
AV1エンコード | 対応 | – |
AV1デコード | 対応 | 対応 |
RTX 4090(Ada Lovelace世代)はGeForceシリーズで初のデュアルエンコーダー搭載GPUです。
第8世代NVEncエンコーダーを2基(デュアル)搭載して、従来モデルより高速な動画エンコード性能と、少ないビットレートで高画質な「AV1エンコード」に対応します。
NVEncで動画エンコード
rigayaさん作のAviutl拡張プラグイン「NVEnc 7.02」を使って、RTX 4090の動画エンコード性能をテストします。
テスト内容は1分30秒ほどのフルHD動画(中身は原神のプレイ動画)を、VBR形式(ビットレート16000 kbpsでBフレーム挿入あり)でエンコードするのみ。ログに記録される処理速度(fps)で性能を比較します。

まずはAV1エンコードから。RTX 4090はなんと秒速372フレームでAV1エンコードを実行可能です。CPUだと非常に重たい処理が、RTX 4090ならあっという間に終わってしまいます。
試しに容量14 GBの動画(約2時間)を同じ設定でAV1エンコードさせると、およそ8分で完了です。画質が近いCPUのHEVCエンコードだとほぼ等速(動画と同じ時間)掛かるため、AV1エンコードの速さは文句なしに圧倒的です。

AV1に近い品質を出せるHEVCエンコードでは処理性能がやや下がります。RTX 4090は秒速178フレーム、RTX 3090は秒速145フレームです。
てっきりエンコーダーが2基に増えて、処理性能もそのまま2倍になると思っていたのですが、実際は23%にとどまります。

処理が軽いかわりに品質も悪いH.264エンコードでは、RTX 4090が秒速142フレーム、RTX 3090が秒速117フレームでした。
HEVCより更に処理性能が伸びづらく、両者の性能差はたった約21%です。RTX 4090で動画エンコードをするなら「AV1」一択と行ってしまっていいでしょう。

筆者も当然そう考えたので、実際にどれくらい「画質」に差があるか、Netflixが開発したVMAFベンチマークで調査しました。
AV1エンコードはどれくらい高画質?

人間の目に近い主観的な映像品質を評価する「VMAF」
VMAF(Video Multi-Method Assessment Fusion)スコアは、サブスク動画配信の大手「NETFLIX」が開発した、映像品質を評価するスコアです。従来の手法(PSNRやSSIM)と比較して、より人間の目に近い主観的な品質差をスコア化できるのがメリットです。
今回はNVEnc AV1が既存のHEVCやH.264に対してどれほど高画質なのかを、VMAFを使って比較検証します。スコアの捉え方はシンプルに「100点に近いほどオリジナル品質」です。

VMAFスコアの比較まとめ | |||||
---|---|---|---|---|---|
ビットレート (kbps) | AV1 (RTX 4090) | HEVC (RTX 4090) | H.264 (RTX 4090) | HEVC (RTX 3090) | H.264 (RTX 3090) |
20000 | 99.05 | 98.14 | 97.22 | 98.14 | 97.23 |
18000 | 98.60 | 97.60 | 96.40 | 97.59 | 96.40 |
16000 | 98.04 | 96.82 | 94.99 | 96.81 | 95.19 |
14000 | 97.16 | 95.65 | 93.09 | 95.62 | 93.10 |
12000 | 95.66 | 93.83 | 90.37 | 93.79 | 90.36 |
10500 | 93.96 | 91.76 | 87.56 | 91.71 | 87.56 |
9000 | 91.70 | 89.01 | 83.82 | 88.94 | 83.80 |
7500 | 88.06 | 84.74 | 78.65 | 84.66 | 78.60 |
6000 | 83.30 | 79.32 | 71.34 | 79.22 | 71.19 |
5000 | 78.95 | 74.46 | 65.33 | 74.26 | 65.16 |
4000 | 73.37 | 68.39 | 56.93 | 68.22 | 56.84 |
NVEnc AV1のVMAFスコアは比較したコーデックでもっとも高画質です。フルHDのゲーム配信でちょうど良いとされる9000 kbpsだと、AV1が91.7点、HEVCが89点、H.264はわずか83.8点でした。
ビットレート(容量)を少なくするほどAV1とH.264のVMAFスコアは差が開いています。
つまり、少ないビットレートでも高い画質を維持できるため、インターネットのアップロード速度や録画を保存するストレージの容量を節約できます。
TwitchのフルHD配信で人気のある6000 kbps設定だと、AV1が83.3点を維持します。H.264で同じスコアを出すには9000 kbpsが必要ですので、AV1は約33%少ないビットレートで同じ画質を出せている計算に。
なお、Ada Lavelaceの第8世代NVEncエンコーダー自体の品質改善は特になさそうです。RTX 3090で同じ設定のままHEVCとH.264エンコードを行うと、VMAFスコアはほぼ同じでした。

AV1のVMAFスコア効率をHEVCとH.264と比較したグラフです。NVIDIAがアピールする「H.264に対して40%も効率がいい」については、実用性の少ない2000 kbpsまで下げてようやく確認できました。

約2分のフルHD(24 fps)アニメ動画を同じ設定で、ビットレート別にNVEncエンコードすると、60 fpsのゲームプレイ動画よりVMAFスコアが伸びづらかったです。
しかも、HEVCとのスコア差はわずか平均0.2%で大差なし。高ビットレートにおいてはH.264との性能差もほとんど無く、AV1のメリットが発揮されません。
なんとなくAda Lovelaceの第8世代NVEncエンコーダーは、動きが速くフレームレートが高いゲームプレイ動画向けに最適化されていて、動きが少なくフレームレートが低い動画コンテンツとの相性はイマイチなのかも・・・?
特にアニメだとセル画で作られている都合上、動いている部分と動かない部分がハッキリと分かれていて、ゲームプレイ動画のように画面全体がヌルヌルと動くシーンはほとんど無いです※。
※WIT STUDIOが制作した「進撃の巨人」やufotable制作の「鬼滅の刃(煉獄杏寿郎 vs 猗窩座)」のように、画面全体がダイナミックにヌルヌルと動くアニメは極めて稀です。
OBS Studioでゲーム配信

ゲーム配信で定番のソフト「OBS Studio」がNVEnc AV1に対応済みです。
オーバーウォッチ2のリプレイモードを4K解像度(3840 x 2160)で録画配信して、NVEnc H.264とAV1の画質を比較したスクリーンショットをこちら↓にまとめて掲載します。
画質の差が分かりやすいように、ビットレートを9000 kbps(フルHD換算で2250 kbps)まで下げているとはいえ、ここまで圧倒的な画質差だと「AV1すごすぎでは・・・?」と思います。
H.264だと4Kゲーム配信に必要なビットレートは相当に多かったのですが、AV1ならたった9000 kbps程度で十分に見られる画質で配信可能です。

RTX 4090で動画配信 | ||||
---|---|---|---|---|
解像度 | 配信 | 平均fps | 性能低下 | コマ落ち |
フルHD | なし | 278.1 | – | – |
フルHD | H.264(P6) | 258.5 | -7.1% | 0.3% |
フルHD | AV1(P6) | 260.1 | -6.5% | 0.9% |
4K | なし | 144.2 | – | – |
4K | AV1(P4) | 128.5 | -10.9% | 0.0% |
4K | AV1(P6) | 129.2 | -10.4% | 38.9% |
ではこちらのデータを見てください。フォートナイトの「TILTED TOWERS BENCHMARK」にて、OBSで録画配信をした場合としなかった場合で平均fpsを比較しました。
H.264で録画と配信を同時に動かすと、フルHDで平均fpsが約7%フレームレートが下がります。ドロップフレーム(コマ落ち)はわずか0.3%で非常に安定しています。
AV1の場合は、フルHDで約6.5%、4Kで約10.9%だけフレームレートが下がりました。ただし、4Kだとドロップフレーム率が約40%とガタガタで安定せず。
プリセットをP6(slower)からP4(medium)に妥協すると、ほぼ0%まで下がって安定します。
たしかにフレームレートが若干下がるものの、実用上は許容できるレベルです。
RTX 3090で動画配信 | ||||
---|---|---|---|---|
解像度 | 配信 | 平均fps | 性能低下 | コマ落ち |
フルHD | なし | 222.7 | – | – |
フルHD | H.264(P6) | 205.0 | -8.0% | 0.0% |
フルHD | AV1(P6) | – | – | – |
4K | なし | 87.7 | – | – |
4K | H.264(P4) | 79.8 | -9.0% | 57.0% |
4K | H.264(P6) | 81.0 | -7.7% | 64.7% |
なお、RTX 3090も4Kで録画と配信ができますが、プリセットをP4(medium)まで下げてもドロップフレーム率が57%で深刻です。
しかも画質で大きく劣るH.264ですから、RTX 4090と比較してしまうと・・・話にならないレベルです。4Kゲーム配信において、RTX 3090は明確に型落ちです。
フルHD(1920 x 1080 @60 fps)は、VBR形式で9000 kbps(最大12000 kbps)です。キーフレーム間隔が2秒、プリセットにP6:Slower、Look-ahead無しで心理視覚チューニングを有効化しています。
4K(3840 x 2160 @60 fps)は、VBR形式で24000 kbps(最大28000 kbps)です。キーフレーム間隔が2秒、プリセットにP6:Slower、Look-ahead無しで心理視覚チューニングを有効化。

RTX 4090の温度と消費電力
消費電力を実際に計測

電力ロガー機能のついた電源ユニットを2台使って、CPUとマザーボード(CPU以外)に電力供給を分割します。
テスト環境 | ||
---|---|---|
![]() | 1200 W(80+ Platnium)使用モデル「Toughpower iRGB PLUS」 | |
![]() | 850 W(80+ Gold)使用モデル「Toughpower iRGB PLUS」 |
FF15ベンチマーク(高品質)をテスト中に、CPU以外の消費電力をロガー機能で測定した後、グラフィックボードを取り外した状態で再び同じテストを実行して測定を行います。
- A:グラボを取り付けた状態で消費電力を測定
- B:グラボを外した状態で消費電力を測定
以上2つのデータを取得したら、「AをBで引き算」でグラフィックボード本体の消費電力を抽出できる仕組みです。
グラボの消費電力はソフト読み(HWiNFO)で確認は可能ですが、グラフィックボードのモデルやメーカーによって表示される数値に差が生じる可能性があるので、ロガー機能のついた電源ユニットを使って測定しています。

消費電力のデータは「1秒ずつ」測定されます
少々手間は掛かるものの、ただのソフト読みよりは正確です。
FF15ベンチマーク(設定:高品質)を実行中に、グラフィックボード本体の消費電力を計測します。なお、消費電力の比較は最大値ではなく「平均値」を使います。
RTX 4090の消費電力(平均)は意外と大人しいです。4Kゲーミングで約370 W、WQHDで約302 W、フルHDだと約288 Wにとどまります。
一瞬のピーク時ですら430 W程度でTDP:450 Wをきちんと守っています。300 W制限(Power Limit:67%)時の消費電力は、4Kゲーミングで平均303 Wと、指定した消費電力に収まります。
フルHDとWQHDの消費電力が著しく低い理由は、やはりCPUボトルネックです。CPUボトルネックに足を引っ張られ、思うようにGPU使用率を伸ばせないため、結果的に消費電力も低く抑えられてしまいます。
比較的CPUボトルネックが出づらい4Kゲーミングでは、平均370 Wまで上昇します。ちなみに、GPUに100%の負荷をかけ続ける「3DMark TimeSpy Extreme(30分)」だと平均417 Wを記録しています。
400 W超えの消費電力は決してエコだとは思えませんが、RTX 4090の驚異的なゲーミング性能やクリエイティブ性能を考慮すると、RTX 3090を使うより生産性が高く結果的にワットパフォーマンスが良いです。
ワットパフォーマンスは?
FF15ベンチマークの平均フレームレートを、先ほど実際に測定した消費電力で割り算して、ワットパフォーマンス(= 消費電力1 Wあたりのフレームレート)を求めます。

4Kゲーミング時のワットパフォーマンスです。RTX 4090が1 Wあたり0.41 fps、RTX 3090は1 Wあたり0.30 fpsで、約37%ほどワットパフォーマンスが改善されています。
300 W制限時のワットパフォーマンスなら1 Wあたり0.47 fpsで、RTX 3090より約57%も効率的です。
やはり半導体は最先端プロセスで製造するほうが、消費電力あたりの性能を高めやすい傾向が明らか。
グラフィックボードの温度をチェック
FF15ベンチマーク(3840 x 2160)を実行中に、HWiNFOを使ってGPUコア温度を計測します。

400 W近い消費電力にもかかわらず、INNO3D製「GEFORCE RTX 4090 X3 OC」はGPUコア温度をわずか62℃に抑え込んでいます。

さすがに全長336 mm、奥行き145 mm、厚み60 mm(3スロット占有)の大型設計です。分厚いヒートシンクを、100 mm径の超大型トリプルファンで冷却して、静かにGPU温度を冷やします。

GPUに100%近い負荷がかかる「3DMark Speed Way(10分)」テストを使った状態で、距離50 cmの位置に配置したデジタル騒音ロガーで1秒ずつ「騒音値」を測定したグラフです。
アイドル時の騒音値が平均34.5 dBで「静か」、負荷がかかるとゆるゆるとファンが回り始め、37.5~38.0 dB前後で動作音が止まります。せいぜい38 dB程度で、40 dBにすら届かない動作音は「やや静か」です。
100%負荷時に400 Wをやや超える消費電力を、40 dBに満たない静かな動作音できっちり冷やし切ります。
300 W制限時なら、ファンの騒音はさらに軽減されて36 dB前後です。廉価モデルのRTX 3080 TiやRTX 3090より、よっぽどRTX 4090の方が静かによく冷えています。
騒音値(dBA) | 評価 | 目安 |
---|---|---|
30 ~ 32.49 | 極めて静か | 耳を近づければ聞こえるレベル |
32.5 ~ 34.9 | 静か | ファンが回っているのが分かる |
35 ~ 39.9 | やや静か | 扇風機を「小」で回したくらい |
40 ~ 42.49 | 普通 | エアコンよりは静かな音 |
42.5 ~ 44.99 | やや騒音 | エアコンの動作音に近い |
45 ~ 50 | 騒がしい | 扇風機を「中~大」で回した音 |
50 ~ | うるさい・・・ | 換気扇を全力で回した音 |
まとめ:今のところ「唯一無二のハイエンドGPU」

「RTX 4090」のデメリットと弱点
- 4K未満だとCPUボトルネックが深刻
(※グラボそのものの弱点ではない) - DLSS 3.0対応ゲームが少ない
- フレーム生成は表示遅延を増加させる
- 3つに分かれた変換コネクタが目立つ
- 巨大なボード設計はPCケースを選ぶ
- 入手性がやや悪い
- 国内の販売価格が高い(30万円前後)
「RTX 4090」のメリットと強み
- フルHDで300 fpsを狙えます
- WQHDで240 fpsも可能
- 4Kで144 fpsがようやく現実的に
- 4Kでも実用的なレイトレ性能
- fpsをドカッと増やす「DLSS 3.0」
- 改善されたワットパフォーマンス
- 巨大ですが静かによく冷える設計
- 圧倒的なクリエイティブ性能
- 高画質で超高速な「AV1エンコード」
- 安定した配信性能(コマ落ちが少ない)
- 高帯域で大容量なVRAM
- コストパフォーマンスが高い(1599ドル)
「RTX 4090」は今のところ、他で代替が効かない唯一無二のハイエンドGPUです。
RTX 4090に近い性能やコスパを提供できるマトモなライバルGPUが、RTX 4090以外に1つも存在しません。
従来のRTX 3090から4Kゲーミングで1.6倍の性能アップ、DLSS 3.0のフレーム生成を含めると2倍を大幅に超える性能アップを実現していますが、価格設定はわずか100ドルの値上げのみ。
たった7%の値上げでRTX 4090は驚異的なゲーミング性能と、16384コアのCUDAコアがもたらす圧倒的なクリエイティブ性能、第8世代NVEncエンコーダーをデュアル搭載した強力なエンコード性能を提供します。
おおむね評判通りの凄まじいグラフィックボードで、弱点を挙げるのが難しいです。
強いて言えば、4K未満だとCPUボトルネックが原因でフレームレートが思うように伸びないのと、やはり400 W前後の消費電力は絶対値として見ると「低い」とはいえない点を挙げられます。

ちもろぐの個人的な評価は「A+ランク」です。
1599ドルならSランク級のグラフィックボードですが、30万円前後の価格だとA+が妥当。為替が安定していて22~23万円くらいで出始めていれば、印象が大きく違ったでしょう。
以上「RTX 4090ベンチマーク & レビュー:配信者やAI絵師にも最適な弩級ゲーミングGPU」でした。
RTX 4090を入手する
RTX 4090を搭載するグラフィックボードは、記事を書いた時点で29~35万円の価格帯で購入できます。600 Wを想定した大型デザインがほとんど占めているため、冷却性能に関してはどれを選んでも大きくハズレないでしょう。
今回のレビューで使用した「INNO3D GEFORCE RTX 4090 X3 OC」は、LEDライティングの無い無骨なデザインがある意味メリットです。
電源コネクタが8 x 3 pinで物理的に450 W以上の電力を消費できないため、850 W以上の電源ユニットで問題なく運用できる手頃さも嬉しいです。
冷却性能と静音性はレビューに記載した通り、目立った問題なし。10分間の3DMark Speed Wayテストで、GPUコア温度は68℃前後(VRAMは72℃)、ファンの騒音値は38 dBにとどまります。
RTX 4090を搭載するBTO
RTX 4090搭載でイチオシは「STORM PG」です。Core i7 13700K(16コア24スレッド)、240 mm水冷式クーラーを搭載しつつ、約55万円と他社よりも大幅にリーズナブルな価格設定です。
もうひとつのおすすめは「G-GEAR neo」です。Core i9 13900KF(24コア32スレッド)、240 mm水冷式クーラー、ASUS TUF Z690マザーボードを搭載。メモリは標準で32 GBが入っています。
納期を重視する方はスピード納期で有名な「ガレリア」がやはり適任。
重量抜群かつヘアライン加工が施された高級感のあるアルミ製PCケースに、Core i9 13900K(24コア32スレッド)、240 mm水冷式クーラー、Intel Z790マザーボードを搭載。
大型化したグラフィックボードが輸送時の揺れでPCIEスロットの根本から破損しないように、大型のVGAサポートステイ「リジッドカードサポート」を導入済みです。
レビューで使用したパーツはこちら【おすすめ】
RTX 4090を運用できる電源ユニット
定格モデル(450 W想定)なら、容量850~1000 Wの電源ユニットで大丈夫です。PCIeケーブルの太さが16 AWGあり、大電流による加熱もほとんど問題になりません。
OCモデル(600 W想定)の場合は、やや余裕を持って容量1000 W以上を推奨します。Core i9 13900KをOCして運用する組み合わせでは、1300 Wあると良いでしょう。
マトモな電源ユニットは容量ギリギリで運用しても特に問題が無いものの、動作音がやはり気になります。動作音を下げるには負荷率を下げるのが一番効果的ですので、想定電力を上回る容量を採用する実用上のメリットは一応あります。
グラフィックボードのレビュー記事
予想よりも高評価ですねぇ
珍しく「前世代よりベンチマーク性能2倍以上!」みたいな謳い文句が真実っぽかったっていう
思ったより良い性能でした。代替案が存在しないのも高評価の理由です。
だから、シェーダー規模が一気に減ってしまう下位モデル(RTX 4080 16GB等)がちょっと心配です。
intelのAシリーズとRTX4000シリーズのAV1エンコの品質に差はあるんでしょうか?
実際にARC Aシリーズを持っていないのでなんとも言えないのですが、rigayaさんの調査を見る限り、QSV H.264とあまり変わらないそうな・・・。
「AV1エンコードについては、第1世代ということもあるのか、HEVCより画質ー容量比が悪く、H.264とだいたい同程度ぐらいになっている。」
https://rigaya34589.blog.fc2.com/blog-entry-1501.html
なんかおかしいと思ったら…それ古いやつですね。
https://rigaya34589.blog.fc2.com/blog-entry-1549.html
この9月に測定されたデータだと、QSVEncCに–gop-ref-distオプションが追加されてAV1の圧縮効率が上がったみたいです。
これとやかもちさんの記事の検証結果を両方見てみた感じだと、(素材やエンコ設定によって変わるので一概には言えませんが)Aシリーズの品質はRTX4000シリーズよりも良さそうですね。
ゲームしないのでエンコのために高いグラボを買わずに済みそうです。
過去の(gtx10xx系位から)グラボを含めたaiベンチマーク比較とかも見てみたいですね……(個人的にはrtx3070tiを使っていますがai絵師結構ギリギリなので……その辺の比較がとても気になります)
GTX10とRTX系では倍以上の差が開きますよ。
1080Ti(1分54秒)ですら3050(1分10秒)に大差で負けてしまいます。
ぼくもAI絵師にかなり興味津々ですので、溜め込んでるレビュー記事(i9 13900K、Ryzen 9 7950X、Raptor Lakeの電圧調整、240HzのWQHD・・・etc etc)を終えて一段落したら、Stable Diffusion特集をしたいなと思ってます。
いつもいつも、楽しいレポートありがとうございます
今回もとても見ごたえがありました
4090凄いですね
さて、昨今の世相による製品価格の高騰、入手困難、電気代の上昇、などがきっかけになったのか、何かそういう超絶性能なGPUやCPUに冷めていっている自分に気がついたりもしています
もちろん自作ユーザとして、モンスターマシンには憧れはあるのですが、今は省電力と価格と性能の1番バランスの良いところも同時に探しています
具体的には3060tiと5600xとかの定番ペアなどですが、某有名MMOなどで長時間パソコンを立ち上げるのに最適解はどれになるだろうなどと常々考えてはおります
時代は変わり、パソコンの部品はそれぞれ4万までが目安なんてことはもう言えないのでしようが、でも標準画質でフルハイならば、ある程度のランクで性能飽和してしまっている気もします
話はそれましたが、このハイスペック製品は、実はここまで低電力にできる!セットみたいなものも教えていただければ幸いです
低電力狙いだと、電力特性の良い製造プロセスを使っていて、かつ標準設定が過激なパーツが狙い目になります。
具体例をあげますと、CPUではZen3やZen4(例:5700Xや7700X)、グラボだとRDNA 2.0(例:RX 6700 XT~6750 XT)が良いです。
たとえば7700Xは標準設定だと142Wですが、105Wに制限してもほぼ同じ性能を維持します。RX 6700 XTや6750 XTも標準そのままだと200W超えなのに、160~175Wに制限しても性能を維持できます。
リスクはありますが「低電圧化」を施すと、105Wで90~95%の性能(RTX 3070相当)を維持できる場合も。
・・・よって、少ない消費電力で高性能を目指すと(今は)AMDプラットフォームがおすすめです。
> 某有名MMOなどで長時間パソコンを立ち上げるのに最適解
これに関しては特にコレといった正解がないです。
豪華なスペックで部品もりもりのマザーボードよりも、あえて簡素なマザーボードを選ぶと、かえって安定する可能性はあります。
たとえば、筆者がごく最近まで使っていたメインPCは、自作PC界隈からバカにされがちな「ASRock Z370 Pro4」にCore i9 9900Kをのせて使っています。
これで原神やAdobeソフトをつけたまま、2~3ヶ月単位で連続稼働させてます。あとは瞬停対策にUPSを挟むとより安全です。
丁寧で有益なご返信ありがとうございます
直接お答えいただけて、感謝いたします
お教えいただいた製品を中心に再度検討してみます
ありがとうございました
VR環境でも唯一無二になりそうですね
今までずっと性能不足で喘いでいたからこのスペックでようやくHMDの性能に追いついて来た感じ
CPU性能が足りないかあ…
14900KS?でも8950X?とかでもまだボトルネックになりそうで怖い
RTX4090凄いなあ。ゲームではなく、AIアップスケーリング等の新たな用途への道を拓いた感じ。消費電力とサイズとお値段がオバケすぎるけど、存在意義のあるハイエンドって気がする。
この性能が庶民の手に落ちてくるまで、あと何年かかるんだろうか。
4090でここまで4K性能があると、5000,6000番台になるころには手軽に4Kゲーミングができる時代が来そう
自分はいわゆるクリエイター用途でGPUを使うので4090は本当にいい選択肢なんですが、いかんせん高すぎる…
将来的に20万円ぐらいに落ちたりするんでしょうかね。
「コスパ」という言葉の定義からすれば4090は最強なんですけどね…
日本円と脳がそれを拒絶する
ちもろぐさんは黒い砂漠大好きでわざわざコメントするのですけど、
皆大好きな黒い砂漠の美麗な画質がTUF 4090 OCの12VHPWR端子を焼いたのは…
痛ましいニュースだよな
https://www.reddit.com/r/nvidia/comments/yc6g3u/comment/itmjt9d/?utm_term=40973477089
高騰していた時期の3080,90,90TIと比べると安く感じる性能ではあるし魅力のほうが勝るのも事実
200Wや100Wで動かした場合もどういう動きをするか知りたいですね
そして一部のOCモデルが発火するという問題が起こっている模様
同梱の分岐ケーブルを
差込が甘かったり差込口付近でケーブルを上下或いは左右に曲げていると接触不良を起こし、それにより抵抗が少ないピンに大量の電力が集中し発火融解するそうです
いろいろ情報は追っていますが、どうやらNVIDIAが付属している変換ケーブルのQC(品質管理)に問題があるそうです。NVIDIA自ら回収に乗り出したので、もう少しで公式声明が出るかもしれません。
9月は以下のように行っていたのに手のひら返しだ。
「同じ価格でより良い性能」を求める、大多数のゲーマーにとって今回のRTX 40シリーズは刺さらないです。ぼくもその一人です。Pascal世代の衝撃的なデビューと比較すると、Ada Lovelace世代は完全に霞んでいます。
4090に関しては100ドル値上がりしたけど、値上がり以上の性能と価値があるから良いです。問題はRTX 4080前後のSKUです・・・。
凄まじい性能だけど、ゲームプレイ中ずっと電子レンジを回し続けてると考えると恐ろしいw
電気代を気にしない人向けですね
同感。ランニングコスト考えたら、とてもじゃないけど庶民に手を出せるシロモノではありません。この性能が世間に広まるには、あと数年かかりそうですね。
もともと「Titan」グレードだった90番台が、一般人向けなのか?・・・と言われると微妙なライン。
とはいえ、70~80番台もTDPが上がっているようだし、CPUも消費電力が増加傾向。そろそろ法規制が必要な気がしなくもないです。
電気代を気にする言説よく見るんですけど、具体的にいくらくらい上がると見積もっていらっしゃいます?
3060Tiあたりと比較して平均200W増として、毎日10時間ゲームすると、月2000円増程度だと思います
これが高いか安いかは人それぞれでしょうけど、これで運用を諦める人はそもそも30万円のグラボを買わないんじゃないですかね
ちなみに出力500Wの電子レンジの消費電力はだいたい1000W前後になります
質問を受けてしまったようなので、私事ですが。
私の場合、電気代はエアコンを使わない月で3000円以下に抑えてますよ。今夏は30℃くらいまでエアコンを我慢して、月5000円程度で切り抜けました。2000円がどの程度の負担増になるかはお察し下さい。
普段使いはThink Centre M75q Tiny Gen2なので、4090&13世代なんぞに移行してバンバン使った日には何千円増えちゃうんでしょうね。だから「とてもじゃないけど庶民に手を出せるシロモノではありません」って書いてます。庶民ですみません。ついでに言えば、消費電力の大きなパーツは暖房器具ですので、真夏はエアコンで部屋を冷却する電気代も馬鹿にならないと思ってます。グラボの電気代だけで済むとは考えておりません。
まあ、こんな貧乏人が近づくものじゃないのは当然の話です。使ってみたい用途はあるのですが、所詮は遠くから眺めているだけですよ。3年後くらいにこの性能が安く手に入るようになって、はじめて食指が動きます。ただ、その時になって情報を集め始めても、最新型が欲しくなるのはわかってますから、今のうちから「この辺の性能が欲しい」という当たりをつけているわけですね。ワッパ込みで。
ご指摘の通り、グラボに30万円もポンと出せる人なら、電気代など気にならないのでしょう。私なら、30万円もあるなら生活必需品か貯蓄に回します。
熱中症で入院でもしようものなら節約してたぶん吹き飛んで何のための節約だか分からなくなるな
あっ、はい…なんかすいません
グラボの稼働有無にかかわらずエアコンは使ってくださいね…
チラホラと12VHPWRコネクタが発火、溶解する事例が報告されているので注意
ランク付けとかコスパやワッパどころじゃなく売りに出していいのかってレベル
普通の家電なら発火が1件でも起これば連日マスコミが取り上げて1年ぐらい製品の使用停止と回収を促すCMを流すレベル
最近のグラフィックボードは普通に数百ワットの電力を消費するにも関わらず、家電製品のような規制(PSE等)が適用されないのは時代の合ってない。・・・とちょっと思ったりします。
AI絵師って現時点ではマイニング並みにダークな話題だと思うんだけどめっちゃナチュラルに取り扱われてて草
管理人含めてマイニングがダークということに関してはノーコメントなのが草
残念でも何でもなく当然であるが
しょーもない使い方してるアホがいるだけで別にAI技術自体に後ろ暗いところは無いでしょ。犯罪や事件事故に絡むものをダークとか言い出したら自動車も包丁も何なら餅も全部ダークになるが?
ゲーミング目的では既に語り尽くされていて創作目的の使用でしか評価できない領域に入ってるからこういう評価になるのは仕方ない
ゲーミング目的に絞るのであれば発売前の評価同様「そこまでいる?」で終わるのは変わらない
SDはマイニングに匹敵するほどダークサイドな用途でしょうか?
マイニングとは比較にならないほど環境負荷が少なく、グラボが1枚あればいいので転売が湧くほどの過剰な需要と価格高騰も生み出さず、AIが学習すること自体に対する法的な問題も現状ないです。
「一部界隈で問題になっている技術だけど適法状態ならOK、使っていこう」というスタンスならマイニングのGPU価格高騰に対しても新しい技術の為なら仕方ない、で済ませないとダブスタでは?
AI技術そのものは適法だし面白い物だよ
かなりいい加減に言うと大量の画像データを集めてコラージュして別の画像を錬成してるだけなんだし
問題にされてるのは技術を使うためのモラルの部分
大本のビッグ・データを集めるのに脱法アップロードサイトを使ったり
やかもちさんの写真を勝手に使ってウサトラ族ヌード写真集yakamotiを作成したり
やかもちさんの絵柄をコピーして既存のコラージュ技術より気軽に偽もちを作ったり
そういう使い手のモラル部分が問われてるだけでAI技術自体は素晴らしいもんだ
マイニングの次はAI絵師ですか
やべー奴だな
なんでこう…アウトローな用途しかおすすめしてこないんだ?
スケブとかいう守られた環境でまともに納期も守らないアウトローがなんか言ってて草
ふんぞりかってても神扱いされる時代が終わったんやで
アウトローかどうかはともかく「そういう用途」でしかもう差別化出来ないから致し方ない
これでKSP2を高設定高解像度でやったらどうなるのか見てみたいです