Tensor Processing Unit ( TPU ) は、Googleがニューラルネットワーク機械学習用に開発したニューラルプロセッシングユニット( NPU )特定用途向け集積回路( ASIC )です。[ 2 ] Tensorflow、Jax、およびPyTorchは、 TPU でサポートされているフレームワークです。[ 3 ] Google は 2015 年に社内で TPU を使い始め、2018 年にはクラウドインフラストラクチャの一部として、またチップの小型バージョンを販売することで、サードパーティが利用できるようにしました。
CPUとGPUとの比較
グラフィックス処理装置( GPU)と比較すると、TPUは、ラスタライズやテクスチャマッピング用のハードウェアを必要とせず、ジュール当たりの入出力操作数が多く、大量の低精度計算(例えば8ビット精度)[ 4 ]向けに設計されている。[ 5 ] TPU ASICは、データセンターラック内のハードドライブスロットに収まるヒートシンクアセンブリに搭載されていると、 Norman Jouppiは述べている。[ 6 ]
機械学習モデルの種類によって、適したプロセッサの種類は異なります。TPUは畳み込みニューラルネットワーク( CNN )に適しており、GPUは一部の全結合ニューラルネットワークに適しており、CPUは再帰型ニューラルネットワーク(RNN)に有利です。[ 7 ]
歴史
2013 年、Google は、同社のデータセンター向けのカスタム シリコン開発機能を確立するため、Amir Salek博士を採用しました。 [ 8 ] Salek 氏は、Google Technical Infrastructure および Google Cloud のカスタム シリコンの創設者兼責任者として、オリジナルの TPU (Google 初の量産チップ)、TPUv2 (業界初の量産ディープラーニング トレーニング チップ)、TPUv3、TPUv4、Edge-TPU、および VCU、IPU、OpenTitan などの追加のシリコン製品の開発を主導しました。[ 9 ] [ 10 ]オリジナルの TPU エンジニアの 1 人であり[ 1 ] 、後にGroqの創設者 となる Jonathan Ross 氏によると、Google では 3 つの別々のグループが AI アクセラレータを開発しており、最終的に選ばれた設計は シストリック アレイである TPU でした。 [ 11 ]
Norman P. Jouppi 氏は、Google の Tensor Processing Unit 開発の技術リーダー兼主席アーキテクトを務め、わずか 15 か月で最初の TPU の迅速な設計、検証、および本番環境への導入を主導しました。[ 12 ] Jouppi 氏は、2017 年に第 44 回国際コンピュータ アーキテクチャ シンポジウム (ISCA 2017) で発表された画期的な論文「Tensor Processing Unit のデータセンター内パフォーマンス分析」の主執筆者として、TPU が当時の CPU や GPU に比べて 15~30 倍の性能と 30~80 倍のワットあたり性能を達成することを実証し、TPU を Google の製品サービス全体にわたる大規模なニューラル ネットワーク推論の基盤プラットフォームとして確立しました。[ 13 ] [ 14 ]
テンソル処理ユニットは2016年5月のGoogle I/Oカンファレンスで発表され、同社はTPUが1年以上自社のデータセンター内で使用されていると述べた。 [ 6 ] [ 5 ] Googleがその作成について説明した2017年の論文では、1990年代に構築された以前の同様のアーキテクチャのシストリック行列乗算器に言及している。[ 15 ]このチップは、ニューラルネットワークなどの機械学習アプリケーションに使用される記号数学ライブラリであるGoogleのTensorFlowフレームワーク用に特別に設計された。[ 16 ]ただし、2017年時点で、Googleは他の種類の機械学習にはまだCPUとGPUを使用していた。[ 6 ]他のAIアクセラレータ設計も他のベンダーから登場しており、組み込みおよびロボット市場を対象としている。
GoogleのTPUは独自のものです。一部のモデルは市販されており、2018年2月12日付のニューヨーク・タイムズ紙は、 Googleが「クラウドコンピューティングサービスを通じて他社にこれらのチップへのアクセスを許可する予定だ」と報じました。[ 17 ] Googleは、人間対機械の囲碁対局であるAlphaGo対イ・セドル戦シリーズや[ 5 ]、チェス、将棋、囲碁のルールのみからプログラムを生成し、これらのゲームで上位のプログラムに勝利したAlphaZeroシステムにもTPUが使用されていると述べています。 [ 18 ] GoogleはGoogleストリートビューのテキスト処理にもTPUを使用し、ストリートビューデータベース内のすべてのテキストを5日以内に見つけることができました。Googleフォトでは、1つのTPUで1日あたり1億枚以上の写真を処理できます。[ 6 ]また、Googleが検索結果を提供するために使用するRankBrainにもTPUが使用されています。[ 19 ]
Googleは、Google Cloud Platformの一部であるCloud TPUサービス[ 20 ]と、ノートブックベースのサービスであるKaggleおよびColaboratoryを通じて、第三者にTPUへのアクセスを提供しています。[ 21 ] [ 22 ]
BroadcomはTPUの共同開発者であり、Googleのアーキテクチャと仕様を製造可能なシリコンに変換しています。SerDes高速インターフェースなどの独自技術を提供し、 ASIC設計を監督し、台湾セミコンダクター・マニュファクチャリング・カンパニー(TSMC)などのサードパーティファウンドリを通じてチップ製造とパッケージングを管理しており、プログラム開始以来、すべての世代をカバーしています。[ 23 ] [ 24 ] [ 25 ]
2025年9月、GoogleはCrusoeやCoreWeaveを含むいくつかの「ネオクラウド」と、そのデータセンターにTPUを導入することについて協議中である。[ 26 ] [ 27 ] 2025年11月、MetaはGoogleと協議中であり、そのAIデータセンターにTPUを導入する予定である。
製品
テンソルプロセッシングユニット(TPU)の世代[ 28 ] [ 29 ] [ 30 ] | v1 | v2 | v3 | v4 [ 29 ] [ 31 ] [ 32 ] | v5e [ 33 ] | v5p [ 34 ] [ 35 ] | v6e(エンレイソウ)[ 36 ] [ 37 ] | v7(アイアンウッド)[ 38 ] |
|---|
| 導入日 | 2015 | 2017 | 2018 | 2021 | 2023 | 2023 | 2024 | 2025 |
| プロセスノード | 28 nm | 16 nm | 16 nm | 7 nm | リストに載っていない | リストに載っていない | リストに載っていない | リストに載っていない |
| ダイサイズ(mm 2) | 331 | 625未満 | 700未満 | 400未満 | 300~350 | リストに載っていない | リストに載っていない | リストに載っていない |
| オンチップメモリ(MiB) | 28 | 32 | 32 (VMEM) + 5 (spMEM) | 128 (CMEM) + 32 (VMEM) + 10 (spMEM) | リストに載っていない | リストに載っていない | リストに載っていない | リストに載っていない |
| クロック速度(MHz) | 700 | 700 | 940 | 1050 | リストに載っていない | 1750 | リストに載っていない | リストに載っていない |
| メモリ | 8GiB DDR3 | 16 GiBハードベースメモリ | 32 GiB ハードベースメモリ | 32 GiB ハードベースメモリ | 16 GB HBM | 95 GB HBM | 32GB | 192 GB HBM |
| メモリ帯域幅 | 34 GB/秒 | 600 GB/秒 | 900 GB/秒 | 1200 GB/秒 | 819 GB/秒 | 2765 GB/秒 | 1640 GB/秒 | 7.37 TB/秒 |
| 熱設計電力(W) | 75 | 280 | 220 | 170 | リストに載っていない | リストに載っていない | リストに載っていない | リストに載っていない |
| 計算性能(1秒あたり兆回の演算) | 23 | 45 | 123 | 275 | 197(bf16) 393 (int8) | 459(bf16) 918 (int8) | 918(bf16) 1836年(int8) | 4614 (fp8) |
| エネルギー効率(teraOPS/W) | 0.31 | 0.16 | 0.56 | 1.62 | リストに載っていない | リストに載っていない | リストに載っていない | 4.7 |
第一世代TPU
第一世代のTPUは8ビットの行列乗算エンジンで、PCIe 3.0バスを介してホストプロセッサによってCISC命令で駆動されます。28 nmプロセスで製造され、ダイサイズは≤ 331 mm 2です。クロック速度は700 MHzで、熱設計電力は28~40 Wです。28 MiBのオンチップメモリと、 256×256の8ビット乗算器のシストリックアレイの結果を取得する4 MiBの32ビットアキュムレータを備えています。[ 15 ] TPUパッケージ内には、 34 GB/sの帯域幅を提供する8 GiBのデュアルチャネル2133 MHz DDR3 SDRAMがあります。 [ 30 ]命令は、ホストとの間でデータを転送し、行列乗算または畳み込みを実行し、活性化関数を適用します。[ 15 ]
第2世代TPU
第 2 世代 TPU は 2017 年 5 月に発表されました。[ 39 ] Google によると、第 1 世代 TPU の設計ではメモリ帯域幅によって制限されていたが、第 2 世代の設計では16 GBの高帯域幅メモリを使用することで、帯域幅が 600 GB/秒に、パフォーマンスが 45 teraFLOPSに向上しました。[ 30 ] TPU はその後、180 teraFLOPS のパフォーマンスを持つ 4 チップ モジュールに配置されます。[ 39 ]次に、これらのモジュール 64 個が組み立てられ、11.5 petaFLOPS のパフォーマンスを持つ 256 チップ ポッドになります。[ 39 ]注目すべきは、第 1 世代 TPU が整数に制限されていたのに対し、第 2 世代 TPU はGoogle Brainが発明したbfloat16形式を導入し、浮動小数点数での計算もできるということです。これにより、第 2 世代 TPU は機械学習モデルのトレーニングと推論の両方に役立ちます。 Googleは、これらの第2世代TPUがTensorFlowアプリケーションで使用するためにGoogle Compute Engineで利用可能になると発表しました。[ 40 ]
第3世代TPU
第3世代TPUは2018年5月8日に発表されました。[ 41 ] Googleはプロセッサ自体が第2世代TPUの2倍の性能を持ち、前世代の4倍のチップを搭載したポッドで展開されると発表しました。[ 42 ] [ 43 ]これにより、第2世代TPUの展開と比較して、ポッドあたりのパフォーマンスが8倍(ポッドあたり最大1,024個のチップ)向上します。
TPU v4パッケージ(中央のASICと4つのHBMスタック)と、4つの液冷パッケージを搭載したプリント回路基板(PCB)。ボードのフロントパネルには、上面に4つのPCIeコネクタ(2023)があります。第4世代TPU
2021年5月18日、GoogleのCEOであるサンダー・ピチャイ氏は、Google I/Oバーチャルカンファレンスの基調講演でTPU v4テンソルプロセッシングユニットについて講演しました。TPU v4は、TPU v3チップと比較して2倍以上のパフォーマンス向上を実現しました。ピチャイ氏は、「1つのv4ポッドには4,096個のv4チップが含まれており、各ポッドは、他のどのネットワーク技術と比較しても、チップあたりの相互接続帯域幅が10倍の規模となっています」と述べています。[ 44 ] 2023年4月にGoogleが発表した論文によると、TPU v4は機械学習ベンチマークにおいてNvidia A100よりも5~87%高速です。[ 45 ]
また、v4iと呼ばれる「推論」バージョンもあり、[ 46 ]液体冷却を必要としません。[ 47 ]
第5世代TPU
2021年にGoogleは、TPU v5の物理レイアウトが深層強化学習の新しいアプリケーションの支援を受けて設計されていることを明らかにした。[ 48 ] GoogleはTPU v5がTPU v4のほぼ2倍の速度であると主張しており、[ 49 ]これとTPU v4のA100に対する相対的なパフォーマンスに基づいて、TPU v5はH100と同等かそれ以上の速度であると推測する人もいる。[ 50 ]
v4iがv4の軽量版であるのと同様に、第5世代にはv5eと呼ばれる「コスト効率の高い」 [ 51 ]バージョンがあります。 [ 33 ] 2023年12月、GoogleはNvidia H100と競合できると主張されているTPU v5pを発表しました。[ 52 ]
第6世代TPU
2024年5月、Google I/Oカンファレンスにおいて、GoogleはTrilliumを発表し、2024年10月にプレビュー版が利用可能になった。[ 53 ] Googleは、TPU v5eと比較して、より大きな行列乗算ユニットとクロック速度の向上により、4.7倍の性能向上を実現したと主張している。 [ 54 ]高帯域幅メモリ(HBM)の容量と帯域幅も倍増した。ポッドには最大256個のTrilliumユニットを搭載できる。[ 55 ]
第7世代TPU
2025年4月、Google Cloud Nextカンファレンスにおいて、GoogleはTPU v7を発表しました。この新しいチップはIronwoodと呼ばれ、[ 56 ] 256チップクラスタと9,216チップクラスタの2つの構成で提供されます。Ironwoodのピーク演算性能は4,614 TFLOP/sです[ 57 ] 。
エッジTPU
2018年7月、GoogleはEdge TPUを発表しました。Edge TPUは、エッジコンピューティング向けの機械学習(ML)モデルを実行するために設計されたGoogleの専用ASICチップで、GoogleデータセンターでホストされているTPU(クラウドTPUとも呼ばれます[ 58 ] )と比較して、はるかに小型で消費電力もはるかに少なくなっています。2019年1月、GoogleはCoralブランドの製品ラインを通じてEdge TPUを開発者に提供しました。Edge TPUは、2Wの電力で毎秒4兆回の演算処理が可能です。[ 59 ]
製品ラインナップには、シングルボードコンピュータ(SBC)、システムオンモジュール(SoM)、USBアクセサリ、ミニPCI-eカード、M.2カードが含まれます。SBC Coral Dev BoardとCoral SoMはどちらも、 Debianの派生OSであるMendel Linux OSを搭載しています。[60] [ 61 ] USB 、PCI - e、M.2製品は既存のコンピュータシステムへのアドオンとして機能し、x86-64およびARM64ホスト(Raspberry Piを含む)上のDebianベースのLinuxシステムをサポートします。
Edge TPUでモデルを実行するために使用される機械学習ランタイムは、TensorFlow Liteに基づいています。[ 62 ] Edge TPUはフォワードパス演算の高速化のみが可能で、主に推論の実行に役立ちます(ただし、Edge TPUで軽量の転移学習を実行することは可能です[ 63 ])。また、Edge TPUは8ビット演算のみをサポートしているため、ネットワークをEdge TPUと互換性を持たせるには、TensorFlowの量子化を考慮したトレーニング手法を使用してトレーニングするか、2019年後半からはトレーニング後の量子化を使用することもできます。
2019年11月12日、ASUSはEdge TPUを搭載したシングルボードコンピュータ(SBC) 2機種を発表しました。IoTとエッジAI向けに設計されたAsus Tinker Edge TとTinker Edge R Boardです。これらのSBCはAndroidとDebianオペレーティングシステムを公式にサポートしています。[ 64 ] [ 65 ] ASUSはまた、Edge TPUを搭載したAsus PN60TというミニPCのデモも行いました。[ 66 ]
2020年1月2日、GoogleはCoral Accelerator ModuleとCoral Dev Board Miniを発表し、同月後半に開催されるCES 2020でデモを行う予定でした。Coral Accelerator Moduleは、Edge TPU、PCIe、USBインターフェースを備えたマルチチップモジュールで、統合が容易です。Coral Dev Board Miniは、Coral Accelerator ModuleとMediaTek 8167s SoCを搭載した小型のシングルボードコンピュータ(SBC )です。[ 67 ] [ 68 ]
ピクセルニューラルコア
2019年10月15日、GoogleはPixel 4スマートフォンを発表しました。Pixel 4には、 Pixel Neural Coreと呼ばれるEdge TPUが搭載されています。Googleは、この技術を「Pixel 4の主要なカメラ機能の要件を満たすようにカスタマイズ」したものと説明しており、レイテンシと電力消費を最小限に抑えるために精度をある程度犠牲にしたニューラルネットワーク検索を採用しています。[ 69 ]
Google テンソル
GoogleはPixel Neural Coreに続き、Edge TPUをGoogle Tensorというカスタムシステムオンチップに統合し、2021年にPixel 6シリーズのスマートフォンとともにリリースしました。[ 70 ] Google Tensor SoCは、機械学習に重点を置いたベンチマークで「競合製品に対して非常に大きなパフォーマンス上の利点」を示しました。瞬間的な電力消費も比較的高かったものの、パフォーマンスの向上により、ピークパフォーマンスが必要な期間が短くなったため、消費エネルギーが少なくなりました。[ 71 ]
訴訟
2019年、MIT客員教授のジョセフ・ベイツ氏によって2009年に設立されたSingular Computing [ 72 ]は、 TPUチップの特許を侵害しているとしてGoogleを提訴した。 [ 73 ] 2020年までに、Googleは裁判所が検討するクレーム数をわずか2つにまで減らすことに成功した。2012年に提出されたUS 8407273のクレーム53と、2013年に提出されたUS 9218156のクレーム7で、どちらも浮動小数点数のダイナミックレンジが10 −6から10 6であると主張しているが、標準のfloat16では指数に5ビットしかないため(非正規数に頼らなければ)これは実現できない。2023年の裁判所への提出書類で、Singular Computingは、 float16のダイナミックレンジを超えているとして、 Googleによるbfloat16の使用を具体的に指摘した。[ 74 ]シンギュラー・コンピューティング社は、非標準浮動小数点形式は2009年当時は自明ではなかったと主張しているが、グーグル社は、指数ビット数を設定可能なVFLOAT [ 75 ]形式は2002年に先行技術として存在していたと反論している。 [ 76 ] 2024年1月までに、シンギュラー・コンピューティング社によるその後の訴訟により、係争中の特許の数は8件にまで増加した。同月後半の裁判終結に際し、グーグル社は条件を非公開とした和解に同意した。[ 77 ] [ 78 ]
参照
参考文献
- ^ a b Jouppi, Norman他 (2017). 「データセンター内におけるTensor Processing Unitのパフォーマンス分析」 .第44回国際コンピュータアーキテクチャシンポジウム議事録.国際コンピュータアーキテクチャシンポジウム.トロント: Association for Computing Machinery . pp. 1– 12. arXiv : 1704.04760 . doi : 10.1145/3079856.3080246 .
- ^ 「Cloud Tensor Processing Units (TPU)」 . Google Cloud . 2025年12月10日閲覧。
- ^ 「TPU ソフトウェア バージョン」。Google Cloud ドキュメント。2025年 12 月 10 日閲覧。
- ^ Armasu, Lucian (2016年5月19日). 「Googleの機械学習向け大型チップ発表:効率10倍のTensor Processing Unit(更新)」 . Tom's Hardware . 2016年6月26日閲覧。
- ^ a b c Jouppi, Norm (2016年5月18日). 「Google、TPUカスタムチップで機械学習タスクを高速化」 . Google Cloud Platform ブログ. 2016年5月18日時点のオリジナルよりアーカイブ。 2017年1月22日閲覧。
- ^ a b c d「GoogleのTensor Processing Unit解説:コンピューティングの未来像」 TechRadar 2022年2月26日時点のオリジナルよりアーカイブ。2017年1月19日閲覧。
- ^ Wang, Yu Emma; Wei, Gu-Yeon; Brooks, David (2019-07-01). 「ディープラーニングのためのTPU、GPU、CPUプラットフォームのベンチマーク」. arXiv : 1907.10701 [ cs.LG ].
- ^ “アミール・サレク” .アビセナ。2025 年12 月 16 日に取得。
- ^ Kynge, James (2024年12月3日). 「トランスクリプト:チップの地政学 — NvidiaとAIブーム」 .フィナンシャル・タイムズ. 2025年12月16日閲覧。
- ^サーベラス・キャピタル・マネジメント. 「アミール・サレク – リーダーシップ」 .サーベラス・キャピタル・マネジメント. 2025年12月16日閲覧。
- ^ロス、ジョナサン. 「ジョナサン・ロスの投稿」 . LinkedIn .
- ^ Sato, Kaz (2018年6月18日). 「Google初のTensor Processing Unit(TPU)の詳細な解説」 . Google Cloud Blog . 2025年12月16日閲覧。
- ^ Jouppi, Norman P.; et al. (2017-04-15). 「Tensor Processing Unitのデータセンター内パフォーマンス分析」arXiv : 1704.04760 [ cs.AR ].
- ^ 「Norm Jouppi - VP、エンジニアリングフェロー - AIおよびインフラストラクチャ」。Google Technical Systems Infrastructure 。 2025年12月16日閲覧。
- ^ a b cジュッピ、ノーマン P.;若い、クリフ。パティル、ニシャント。パターソン、デイビッド。アグラワル、ガウラフ。バジュワ、ラミンダー。ベイツ、サラ。バティア、スレシュ。ボーデン、ナン。ボルチャーズ、アル。ボイル、リック。カンタン、ピエールリュック。チャオ、クリフォード。クラーク、クリス。コリエル、ジェレミー。デイリー、マイク。ダウ、マット。ディーン、ジェフリー。ゲルブ、ベン。ガーマガミ、タラ・ヴァジル。ゴッティパティ、ラジェンドラ。ウィリアム・ガランド。ロバート・ハグマン。ホー、C.リチャード。ダグ・ホグバーグ。胡、ジョン。フント、ロバート。ハート、ダン。イバルツ、ジュリアン。ジャフィー、アーロン。アレック・ジャウォースキー。カプラン、アレクサンダー。カイタン、ハルシット。コッホ、アンディ。クマール、ナヴィーン。レイシー、スティーブ。 Laudon, James; Law, James; Le, Diemthu; Leary, Chris; Liu, Zhuyuan; Lucke, Kyle; Lundin, Alan; MacKean, Gordon; Maggiore, Adriana; Mahony, Maire; Miller, Kieran; Nagarajan, Rahul; Narayanaswami, Ravi; Ni, Ray; Nix, Kathy; Norrie, Thomas; Omernick, Mark; Penukonda, Narayana; Phelps, Andy; Ross, Jonathan; Ross, Matt; Salek, Amir; Samadiani, Emad; Severn, Chris; Sizikov, Gregory; Snelham, Matthew; Souter, Jed; Steinberg, Dan; Swing, Andy; Tan, Mercedes; Thorson, Gregory; Tian, Bo; Toma, Horia; Tuttle, Erick; Vasudevan, Vijay; Walter, Richard; Wang, Walter; Wilcox, Eric; Yoon, Doe Hyun (2017年6月26日). Tensor Processing Unit™ のデータセンター内パフォーマンス分析. トロント, カナダ. arXiv : 1704.04760 .
- ^「TensorFlow: オープンソースの機械学習」Wayback Machineに2016年12月15日にアーカイブ「これは、様々な知覚および言語理解タスクに使用されている機械学習ソフトウェアです」— Jeffrey Dean、YouTubeクリップの0:47 / 2:17分
- ^ Metz, Cade (2018年2月12日). 「Google、特別なAIチップを他社にも提供」 . The New York Times . 2022年4月8日時点のオリジナルよりアーカイブ。2018年2月12日閲覧。
- ^ McGourty, Colin (2017年12月6日). 「DeepMindのAlphaZeroがチェスを圧倒」 . chess24.com . 2018年12月12日時点のオリジナルよりアーカイブ。2017年12月12日閲覧。
- ^ 「GoogleのTensor Processing Unitはムーアの法則を7年先に進める可能性がある」PCWorld。2019年2月18日時点のオリジナルよりアーカイブ。2017年1月19日閲覧。
- ^ 「よくある質問 | Cloud TPU」 . Google Cloud . 2021年1月14日閲覧。
- ^ 「Google Colaboratory」 . colab.research.google.com . 2021年5月15日閲覧。
- ^ 「TPU を使用する | TensorFlow Core」 . TensorFlow . 2021年5月15日閲覧。
- ^ Tarasov, Katie (2024年8月23日). 「GoogleがAppleのAIモデルと自社チャットボット「Gemini」のトレーニングに使うカスタムチップをいかに製造しているか」 . CNBC . 2025年9月19日閲覧。
- ^ギャラガー、ダン (2023年9月25日). 「ブロードコムのAI事業は容易に切り離せない」 .ウォール・ストリート・ジャーナル. 2025年9月19日閲覧。
- ^ Mann, Tobias (2023年9月23日). 「参考までに:あの素晴らしい『Google設計』TPU AIチップは、Broadcomの多大な協力を得ていた」 The Register .
- ^ジョージア・バトラー(2025年9月8日)「GoogleがAIクラウドプロバイダーにTPUを提供 - レポート」 www.datacenterdynamics.com 2025年12月10日閲覧。
- ^ 「Google、NvidiaとのAIチップ競争を激化」 The Information 。 2025年12月10日閲覧。
- ^ Jouppi, Norman P.; Yoon, Doe Hyun; Ashcraft, Matthew; Gottscho, Mark (2021年6月14日). GoogleのTPUv4iを形作った3世代からの10の教訓(PDF) . 国際コンピュータアーキテクチャシンポジウム. スペイン、バレンシア. doi : 10.1109/ISCA52012.2021.00010 . ISBN 978-1-4503-9086-6. 2021年6月9日時点のオリジナル(PDF)からアーカイブ。2021年6月18日閲覧。
- ^ a b「システムアーキテクチャ | Cloud TPU」。Google Cloud。2022年12月11日時点のオリジナルよりアーカイブ。2022年12月11日閲覧。
- ^ a b c Kennedy, Patrick (2017年8月22日). 「Hot Chips 29のGoogle TPUとGDDR5に関するケーススタディ」 Serve The Home. 2021年11月23日時点のオリジナルよりアーカイブ。 2017年8月23日閲覧。
- ^ TPU v4 に関する詳細情報は近日公開予定です。乞うご期待。2023年 3 月 12 日にWayback Machineにアーカイブされ、2020 年 8 月 6 日に取得。
- ^ Jouppi, Norman P.; Kurian, George; Li, Sheng; Ma, Peter; Nagarajan, Rahul; Nai, Lifeng; Patil, Nishant; Subramanian, Suvinay; Swing, Andy; Towles, Brian; Young, Cliff; Zhou, Xiang; Zhou, Zongwei; Patterson, David (2023). 「TPU v4:埋め込みのためのハードウェアサポートを備えた機械学習向け光学的に再構成可能なスーパーコンピュータ」. arXiv : 2304.01433 [ cs.AR ].
- ^ a b Cloud TPU v5e Inference Public Preview、2023年11月6日閲覧。
- ^ Cloud TPU v5p 2025年4月28日アーカイブWayback Machine Google Cloud. 2024年4月9日取得
- ^ Cloud TPU v5p トレーニングArchived 2025-02-11 at the Wayback Machine、2024-04-09 取得。
- ^ 「第6世代TPU、Trilliumのご紹介」 Google Cloud Blog 2024年5月29日閲覧。
- ^ "TPU v6e" . Google Cloud . 2025年5月10日時点のオリジナルよりアーカイブ。2024年11月10日閲覧。
- ^ 「Ironwood: 推論時代に向けた初のGoogle TPU」Google Blog . 2025年4月9日. 2025年5月3日時点のオリジナルよりアーカイブ。 2025年4月9日閲覧。
- ^ a b c Bright, Peter (2017年5月17日). 「Google、コンピューティングクラウドに45テラフロップスのテンソルフロープロセッサを導入」 Ars Technica. 2022年3月6日時点のオリジナルよりアーカイブ。 2017年5月30日閲覧。
- ^ Kennedy, Patrick (2017年5月17日). 「Google Cloud TPUの詳細が明らかに」 . Serve The Home. 2022年6月12日時点のオリジナルよりアーカイブ。 2017年5月30日閲覧。
- ^ Frumusanu, Andre (2018年5月8日). 「Google I/O Opening Keynote Live-Blog」 . 2018年5月8日時点のオリジナルよりアーカイブ。2018年5月9日閲覧。
- ^ Feldman, Michael (2018年5月11日). 「Google、第三世代TPUプロセッサを一足先に公開」 . Top 500. 2021年11月18日時点のオリジナルよりアーカイブ。2018年5月14日閲覧。
- ^ Teich, Paul (2018年5月10日). 「Tearing Apart Google's TPU 3.0 AI Coprocessor」 . The Next Platform. 2022年5月15日時点のオリジナルよりアーカイブ。2018年5月14日閲覧。
- ^ 「Google、TPU v4 AIチップを発表」 www.hpcwire.com 2021年5月20日. 2021年6月7日時点のオリジナルよりアーカイブ。 2021年6月7日閲覧。
- ^ Jouppi, Norman (2023-04-20). 「TPU v4: 埋め込みのためのハードウェアサポートを備えた機械学習向けの光学的に再構成可能なスーパーコンピュータ」. arXiv : 2304.01433 [ cs.AR ].
- ^ Kennedy, Patrick (2023年8月29日). 「GoogleがTPUv4とそのクレイジーな光学的に再構成可能なAIネットワークの詳細を説明」 . servethehome.com . 2023年12月16日閲覧。
- ^ 「Googleはなぜ独自のTPUチップを開発したのか?チームメンバーの詳細な情報公開」 censtry.com 2021年10月20日2023年12月16日閲覧。
- ^ Mirhoseini, Azalia; Goldie, Anna (2021-06-01). 「高速チップ設計のためのグラフ配置手法」(PDF) . Nature . 594 (7962): 207– 212. doi : 10.1038/s41586-022-04657-6 . PMID 35361999. S2CID 247855593.オリジナル(PDF)から2024年8月6日にアーカイブ. 2023年6月4日閲覧.
- ^ Vahdat, Amin (2023年12月6日). 「次世代AIワークロードの実現:TPU v5pとAIハイパーコンピュータの発表」 . 2024年4月7日時点のオリジナルよりアーカイブ。2024年4月8日閲覧。
- ^ Afifi-Sabet, Keumars (2023年12月23日). 「Googleは急速に強力なライバルへと変貌を遂げつつある。同社のハイパーコンピュータを支えるTPU v5p AIチップは、これまで以上に高速で、メモリと帯域幅も大きく、最強のH100さえも凌駕している」 . TechRadar .オリジナルより2025年2月11日アーカイブ。 2024年4月8日閲覧。
- ^ 「AI最適化インフラストラクチャポートフォリオの拡大:Cloud TPU v5eのご紹介とA3 GAの発表」 2023年8月29日. 2023年9月20日時点のオリジナルよりアーカイブ。 2023年12月16日閲覧。
- ^ 「次世代AIワークロードの実現:TPU v5pとAIハイパーコンピュータの発表」 2023年12月6日. 2024年4月9日閲覧。
- ^ Lohmeyer, Mark (2024年10月30日). 「AIファーストの未来に向けた強力なインフライノベーション」 .
- ^ Velasco, Alan (2024年5月15日). 「Google Cloud、AIパフォーマンスが4.7倍向上した第6世代TPU「Trillium」を発表」 . HotHardware . HotHardware . 2024年5月15日閲覧。
- ^ 「第6世代TPU、Trilliumのご紹介」 Google Cloud Blog 2024年5月17日閲覧。
- ^ 「テクノロジー競争の中心にあるシリコンバレーの『AI工場』」 www.bbc.com 2025年11月19日。
- ^ Wiggers, Kyle (2025年4月9日). 「IronwoodはGoogleの最新AIアクセラレータチップ」 . TechCrunch . 2025年4月10日閲覧。
- ^ 「Cloud TPU」 . Google Cloud . 2025年5月6日時点のオリジナルよりアーカイブ。 2021年5月21日閲覧。
- ^ 「Edge TPUパフォーマンスベンチマーク」 Coral . 2020年1月4日閲覧。
- ^ 「Dev Board」 . Coral . 2021年5月21日閲覧。
- ^ 「System-on-Module (SoM)」 Coral . 2021年5月21日閲覧。
- ^ 「Cloud IoTでエッジにインテリジェンスをもたらす」 Google Blog 2018年7月25日2018年7月25日閲覧。
- ^ 「デバイス上で画像分類モデルを再トレーニングする」 Coral . 2019年5月3日閲覧。
- ^ “組込み総合技術展&IoT総合技術展「ET & IoT Technology 2019」に出展することを発表” . Asus.com (日本語) 。2019年11月13日に取得。
- ^ Shilov, Anton. 「ASUSとGoogleが提携、『Tinker Board』AI搭載クレジットカードサイズのコンピューター」 Anandtech.com 2019年11月13日時点のオリジナルよりアーカイブ。2019年11月13日閲覧。
- ^ Aufranc, Jean-Luc (2019年5月29日). 「ASUS Tinker Edge T & CR1S-CM-A SBC、Google Coral Edge TPUとNXP i.MX 8Mプロセッサを搭載」 . CNX Software – 組み込みシステムニュース. 2019年11月14日閲覧。
- ^ 「2020年の新Coral製品」。Google Developers Blog 。2020年1月4日閲覧。
- ^ 「加速器モジュール」 Coral . 2020年1月4日閲覧。
- ^ 「次世代オンデバイスビジョンモデル:MobileNetV3とMobileNetEdgeTPUの紹介」。Google AIブログ。 2020年4月16日閲覧。
- ^ Gupta, Suyog; White, Marie (2021年11月8日). 「Pixel 6のデバイス内機械学習がニューラルアーキテクチャ検索で改善」 . Google AI ブログ. 2022年12月16日閲覧。
- ^ Frumusanu, Andrei (2021年11月2日). 「Pixel 6とPixel 6 Proに搭載されたGoogleのTensor:パフォーマンスと効率性を探る | GoogleのIP:Tensor TPU/NPU」 . AnandTech . 2021年11月3日時点のオリジナルよりアーカイブ。 2022年12月16日閲覧。
- ^ Hardesty, Larry (2011年1月3日). 「ずさんな算数の驚くべき有用性」 . MIT . 2024年1月10日閲覧。
- ^ Bray, Hiawatha (2024年1月10日). 「地元の発明家が数十億ドル規模の特許争いでGoogleに挑戦」 . Boston Globe .ボストン. 2024年1月10日時点のオリジナルよりアーカイブ。 2024年1月10日閲覧。
- ^ 「SINGULAR COMPUTING LLC(原告)対 GOOGLE LLC(被告):特許侵害の修正訴状」(PDF) . rpxcorp.com . RPX Corporation . 2020年3月20日. 2024年1月10日閲覧。
- ^ Wang, Xiaojun; Leeser, Miriam (2010-09-01). 「VFloat: 再構成可能ハードウェア向け可変精度固定小数点および浮動小数点ライブラリ」 . ACM Transactions on Reconfigurable Technology and Systems . 3 (3): 1– 34. doi : 10.1145/1839480.1839486 . 2024年1月10日閲覧。
- ^ “Singular Computing LLC v. Google LLC” . casetext.com . 2023年4月6日. 2023年9月26日時点のオリジナルよりアーカイブ。 2024年1月10日閲覧。
- ^ Calkins, Laurel Brubaker (2024年1月24日). 「Google、50億ドル以上の損害賠償を求めたAIチップ訴訟を和解」 Bloomberg Law .
- ^ブリテン、ブレイク、レイモンド、レイ(2024年1月24日)。「グーグル、16億7000万ドルを求めたAI関連チップ特許訴訟を和解」ロイター。
外部リンク