【極めればこのテンソル操作】permute(1,0)

【極めればこのテンソル操作】permute(1,0)
Photo by ZENG YILI / Unsplash

本記事はPyTorch,NumPy でよくつかうテンソル操作を、頭でしっかりイメージできるようにするための機械学習エンジニア初心者向けシリーズです!

「厳密な正しさ」をもとめるリファレンス的なものではなく、現場でつかうソースコードに頻出するコードで覚えていきましょう。

今日は permute (1,0)

permute操作は、テンソルの次元の順序を変更するためによく使用されます。permuteメソッドの引数は、並び替えの順番を指定します。

permute(1,0)は2次元のテンソルにおいては、「転置」テンソルを作る役割を果たします。なぜそうなのか、順を追ってみていきましょう!

それでは早速以下のような 2×3 なテンソルを考えてみましょう

このテンソルは2次元なので、表で表現できますね。

このとき、このテンソルは PyTorchでは以下のように定義できます。

import torch

x = torch.tensor([[1, 2, 3],
                  [4, 5, 6]])

このテンソルの「形状」は、上でもかいたとおり 2 × 3 ですね。
コード内では、これを (2,3) や [2,3] のように表現します。

テンソルの形状は以下のように .shape で得ることができます

print(f"Shape: {x.shape}")

出力結果は以下のようになります

Shape: torch.Size([2, 3])

はい、ここで、 この [2,3] は各次元のサイズですよね。

この次元の位置を変更できるのが permute です

たとえば、今の例だと、

  • 0番目の位置にある次元(つまり行)の大きさが2
  • 1番目の位置にある次元(つまり列)の大きさが3となります

ある次元を「人」と呼ぶと、

permuteの文法は

となります。

そこで、

とは、以下を意味します。

permute(1,0) のサンプルコード

import torch
import numpy as np

x = torch.tensor([[1, 2, 3],
                  [4, 5, 6]])
print("Original tensor:")
print(x)
print(f"Shape: {x.shape}")

# permute: 次元の順序を変更
print("\n1. Permute")
print(f"Before: {x.shape}")
y = x.permute(1, 0)
print(f"After permute(1, 0): {y.shape}")
print(y)

結果は以下のように [3,2]のテンソルになりました。

Original tensor:
tensor([[1, 2, 3],
        [4, 5, 6]])
Shape: torch.Size([2, 3])

Permute
Before: torch.Size([2, 3])
After permute(1, 0): torch.Size([3, 2])
tensor([[1, 4],
        [2, 5],
        [3, 6]])

つまり、転置していますね。

このように、2次元のテンソルの場合は、permute(1,0)は「転置」ベクトル操作になります。

Read more

GPUメモリ最適化の深層:初回と最終バッチの特殊性を踏まえた効率的なAI画像処理

GPUメモリ最適化の深層:初回と最終バッチの特殊性を踏まえた効率的なAI画像処理

はじめに こんにちは!Qualitegプロダクト開発部です。 当社では、LLMテクノロジーをベースとしたAIキャラクター、AIヒューマンの研究開発を行っています。そんな中、表情、仕草のように「人間らしさ」をもったバーチャルヒューマンを再現するときには画像生成、画像編集といったAIを活用した画像処理が必要となります。 人と対話するAIヒューマンやバーチャルヒューマンはタイムリーに表情や仕草を生成する必要があるため、複数の画像をフレーム連結してつくるモーション(シンプルにいうと動画)を短時間に生成する必要があります。 このようなとき、AIトレーニングやシンプルな推論とは異なり、いかにGPUの能力を引き出してやるか「GPUの使いこなし術」がミソとなります。 GPUの使いこなし術というと、以前のブログにも連続バッチやダイナミックバッチについてLLM推論のコンテクストで語りましたが、本日は画像処理におけるGPUメモリ最適化、とくに、推論時バッチにおける「初回と最終回」のお作法という少しマニアックな話題について語ってみようとおもいます。 画像処理とGPU GPUを用いた画像

By Qualiteg プロダクト開発部
Qualitegセレクション:アイディア深堀編③RoundRobinの活用術

Qualitegセレクション:アイディア深堀編③RoundRobinの活用術

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。 Qualitegセレクション、アイディア深堀編もいよいよ第3弾!今回は、複数人でアイディアを発散・深堀する際に効果的な RoundRobin(ラウンドロビン) という手法をご紹介します。ブレインストーミングに行き詰まった時や、多様な視点を取り入れたい時にぜひ活用してみてください。 RoundRobinとは? RoundRobinとは、様々な場面で用いられますが、大抵の場合において「持ち回り」、つまり「何かの役割・出番をたくさんの物事・人員で交替しあう」というような意味で使うことが多いです。 ここでは、参加者全員が順番にアイディアを出し、それを記録していく手法をRoundRobinと呼んでいます。順番に意見を述べることで、発言力の差による偏りをなくし、全

By Join us, Michele on Qualiteg's adventure to innovation
PyTorchバージョンとNVIDIA GPU Compute Capability Level サポート

PyTorchバージョンとNVIDIA GPU Compute Capability Level サポート

古いPyTorchコード資産を持っている会社は、昔のコードが最新のPyTorchで動かない!最新のGPUで動かない!ということに遭遇することが多いのでしょうか。 今回は、PyTorchバージョン、対応GPU Capability Level 、対応CUDAバージョンについてまとめてみます。 PyTorchがサポートするGPUの Compute Capability PyTorch バージョン サポートされる Compute Capability (SM) レベル 1.0.0 - 1.3.1 SM_35, SM_37, SM_50, SM_60, SM_61, SM_70 1.4.0 - 1.7.1 SM_37, SM_50,

By Qualiteg プロダクト開発部
Qualitegセレクション:アイディア深堀編②6W2Hの活用術

Qualitegセレクション:アイディア深堀編②6W2Hの活用術

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。 本日のテーマは6W2H Qualitegセレクションは、ユーザーエクスペリエンス(UX)向上のためのヒントやツールを紹介するシリーズです。今回は、アイディアをより具体的に、実行可能なレベルまで深堀りする手法として、6W2Hの活用術をご紹介します。 優れたUXを実現するには、ユーザーのニーズを深く理解し、それを満たすサービスやプロダクトを提供することが不可欠です。そのためには、アイディア段階で徹底的に検討し、実現可能性や課題を明確にする必要があります。 今回は、アイディアを深堀りする際に非常に役立つツール「6W2H」について詳しくご紹介します。 6W2Hとは? 6W2Hは、問題解決や状況分析のための強力なフレームワークです。以下の8つの質問から構成さ

By Join us, Michele on Qualiteg's adventure to innovation