1
0
mirror of synced 2024-12-13 00:01:14 +01:00
OpenTaiko/FDK19/コード/04.グラフィック/CTexture.cs
2021-09-21 00:16:38 +02:00

1241 lines
68 KiB
C#
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

using System;
using System.Collections.Generic;
using System.Text;
using System.Drawing;
using System.Drawing.Imaging;
using System.IO;
using System.Diagnostics;
using SlimDX;
using SlimDX.Direct3D9;
using Device = SampleFramework.DeviceCache;
namespace FDK
{
public class CTexture : IDisposable
{
// プロパティ
public bool b加算合成
{
get;
set;
}
public bool b乗算合成
{
get;
set;
}
public bool b減算合成
{
get;
set;
}
public bool bスクリーン合成
{
get;
set;
}
public float fZ軸中心回転
{
get;
set;
}
public int Opacity
{
get
{
return this._opacity;
}
set
{
if (value < 0)
{
this._opacity = 0;
}
else if (value > 0xff)
{
this._opacity = 0xff;
}
else
{
this._opacity = value;
}
}
}
public Size szテクスチャサイズ
{
get;
private set;
}
public Size sz画像サイズ
{
get;
protected set;
}
public Texture texture
{
get;
private set;
}
public Format Format
{
get;
protected set;
}
public Vector3 vc拡大縮小倍率;
// 画面が変わるたび以下のプロパティを設定し治すこと。
public static Size sz論理画面 = Size.Empty;
public static Size sz物理画面 = Size.Empty;
public static Rectangle rc物理画面描画領域 = Rectangle.Empty;
/// <summary>
/// <para>論理画面を1とする場合の物理画面の倍率。</para>
/// <para>論理値×画面比率=物理値。</para>
/// </summary>
public static float f画面比率 = 1.0f;
// コンストラクタ
public CTexture()
{
this.sz画像サイズ = new Size(0, 0);
this.szテクスチャサイズ = new Size(0, 0);
this._opacity = 0xff;
this.texture = null;
this.cvPositionColoredVertexies = null;
this.b加算合成 = false;
this.fZ軸中心回転 = 0f;
this.vc拡大縮小倍率 = new Vector3(1f, 1f, 1f);
// this._txData = null;
}
/// <summary>
/// <para>指定されたビットマップオブジェクトから Managed テクスチャを作成する。</para>
/// <para>テクスチャのサイズは、BITMAP画像のサイズ以上、かつ、D3D9デバイスで生成可能な最小のサイズに自動的に調節される。
/// その際、テクスチャの調節後のサイズにあわせた画像の拡大縮小は行わない。</para>
/// <para>その他、ミップマップ数は 1、Usage は None、Pool は Managed、イメージフィルタは Point、ミップマップフィルタは
/// None、カラーキーは 0xFFFFFFFF完全なる黒を透過になる。</para>
/// </summary>
/// <param name="device">Direct3D9 デバイス。</param>
/// <param name="bitmap">作成元のビットマップ。</param>
/// <param name="format">テクスチャのフォーマット。</param>
/// <exception cref="CTextureCreateFailedException">テクスチャの作成に失敗しました。</exception>
public CTexture(Device device, Bitmap bitmap, Format format)
: this()
{
try
{
this.Format = format;
this.sz画像サイズ = new Size(bitmap.Width, bitmap.Height);
this.szテクスチャサイズ = this.t指定されたサイズを超えない最適なテクスチャサイズを返す(device, this.sz画像サイズ);
this.rc全画像 = new Rectangle(0, 0, this.sz画像サイズ.Width, this.sz画像サイズ.Height);
using (var stream = new MemoryStream())
{
bitmap.Save(stream, ImageFormat.Bmp);
stream.Seek(0L, SeekOrigin.Begin);
int colorKey = unchecked((int)0xFF000000);
this.texture = Texture.FromStream(device.UnderlyingDevice, stream, this.szテクスチャサイズ.Width, this.szテクスチャサイズ.Height, 1, Usage.None, format, poolvar, Filter.Point, Filter.None, colorKey);
}
}
catch (Exception e)
{
this.Dispose();
throw new CTextureCreateFailedException("ビットマップからのテクスチャの生成に失敗しました。", e);
}
}
/// <summary>
/// <para>空の Managed テクスチャを作成する。</para>
/// <para>テクスチャのサイズは、指定された希望サイズ以上、かつ、D3D9デバイスで生成可能な最小のサイズに自動的に調節される。
/// その際、テクスチャの調節後のサイズにあわせた画像の拡大縮小は行わない。</para>
/// <para>テクスチャのテクセルデータは未初期化。(おそらくゴミデータが入ったまま。)</para>
/// <para>その他、ミップマップ数は 1、Usage は None、イメージフィルタは Point、ミップマップフィルタは None、
/// カラーキーは 0x00000000透過しないになる。</para>
/// </summary>
/// <param name="device">Direct3D9 デバイス。</param>
/// <param name="n幅">テクスチャの幅(希望値)。</param>
/// <param name="n高さ">テクスチャの高さ(希望値)。</param>
/// <param name="format">テクスチャのフォーマット。</param>
/// <exception cref="CTextureCreateFailedException">テクスチャの作成に失敗しました。</exception>
public CTexture(Device device, int n幅, int n高さ, Format format)
: this(device, n幅, n高さ, format, Pool.Managed)
{
}
/// <summary>
/// <para>指定された画像ファイルから Managed テクスチャを作成する。</para>
/// <para>利用可能な画像形式は、BMP, JPG, PNG, TGA, DDS, PPM, DIB, HDR, PFM のいずれか。</para>
/// </summary>
/// <param name="device">Direct3D9 デバイス。</param>
/// <param name="strファイル名">画像ファイル名。</param>
/// <param name="format">テクスチャのフォーマット。</param>
/// <param name="b黒を透過する">画像の黒0xFFFFFFFFを透過させるなら true。</param>
/// <exception cref="CTextureCreateFailedException">テクスチャの作成に失敗しました。</exception>
public CTexture(Device device, string strファイル名, Format format, bool b黒を透過する)
: this(device, strファイル名, format, b黒を透過する, Pool.Managed)
{
}
public CTexture(Device device, byte[] txData, Format format, bool b黒を透過する)
: this(device, txData, format, b黒を透過する, Pool.Managed)
{
}
public CTexture(Device device, Bitmap bitmap, Format format, bool b黒を透過する)
: this(device, bitmap, format, b黒を透過する, Pool.Managed)
{
}
/// <summary>
/// <para>空のテクスチャを作成する。</para>
/// <para>テクスチャのサイズは、指定された希望サイズ以上、かつ、D3D9デバイスで生成可能な最小のサイズに自動的に調節される。
/// その際、テクスチャの調節後のサイズにあわせた画像の拡大縮小は行わない。</para>
/// <para>テクスチャのテクセルデータは未初期化。(おそらくゴミデータが入ったまま。)</para>
/// <para>その他、ミップマップ数は 1、Usage は None、イメージフィルタは Point、ミップマップフィルタは None、
/// カラーキーは 0x00000000透過しないになる。</para>
/// </summary>
/// <param name="device">Direct3D9 デバイス。</param>
/// <param name="n幅">テクスチャの幅(希望値)。</param>
/// <param name="n高さ">テクスチャの高さ(希望値)。</param>
/// <param name="format">テクスチャのフォーマット。</param>
/// <param name="pool">テクスチャの管理方法。</param>
/// <exception cref="CTextureCreateFailedException">テクスチャの作成に失敗しました。</exception>
public CTexture(Device device, int n幅, int n高さ, Format format, Pool pool)
: this(device, n幅, n高さ, format, pool, Usage.None)
{
}
public CTexture(Device device, int n幅, int n高さ, Format format, Pool pool, Usage usage)
: this()
{
try
{
this.Format = format;
this.sz画像サイズ = new Size(n幅, n高さ);
this.szテクスチャサイズ = this.t指定されたサイズを超えない最適なテクスチャサイズを返す(device, this.sz画像サイズ);
this.rc全画像 = new Rectangle(0, 0, this.sz画像サイズ.Width, this.sz画像サイズ.Height);
using (var bitmap = new Bitmap(1, 1))
{
using (var graphics = Graphics.FromImage(bitmap))
{
graphics.FillRectangle(Brushes.Black, 0, 0, 1, 1);
}
using (var stream = new MemoryStream())
{
bitmap.Save(stream, ImageFormat.Bmp);
stream.Seek(0L, SeekOrigin.Begin);
#if TEST_Direct3D9Ex
pool = poolvar;
#endif
// 中で更にメモリ読み込みし直していて無駄なので、Streamを使うのは止めたいところ
this.texture = Texture.FromStream(device.UnderlyingDevice, stream, n幅, n高さ, 1, usage, format, pool, Filter.Point, Filter.None, 0);
}
}
}
catch
{
this.Dispose();
throw new CTextureCreateFailedException(string.Format("テクスチャの生成に失敗しました。\n({0}x{1}, {2})", n幅, n高さ, format));
}
}
/// <summary>
/// <para>画像ファイルからテクスチャを生成する。</para>
/// <para>利用可能な画像形式は、BMP, JPG, PNG, TGA, DDS, PPM, DIB, HDR, PFM のいずれか。</para>
/// <para>テクスチャのサイズは、画像のサイズ以上、かつ、D3D9デバイスで生成可能な最小のサイズに自動的に調節される。
/// その際、テクスチャの調節後のサイズにあわせた画像の拡大縮小は行わない。</para>
/// <para>その他、ミップマップ数は 1、Usage は None、イメージフィルタは Point、ミップマップフィルタは None になる。</para>
/// </summary>
/// <param name="device">Direct3D9 デバイス。</param>
/// <param name="strファイル名">画像ファイル名。</param>
/// <param name="format">テクスチャのフォーマット。</param>
/// <param name="b黒を透過する">画像の黒0xFFFFFFFFを透過させるなら true。</param>
/// <param name="pool">テクスチャの管理方法。</param>
/// <exception cref="CTextureCreateFailedException">テクスチャの作成に失敗しました。</exception>
public CTexture(Device device, string strファイル名, Format format, bool b黒を透過する, Pool pool)
: this()
{
MakeTexture(device, strファイル名, format, b黒を透過する, pool);
}
public void MakeTexture(Device device, string strファイル名, Format format, bool b黒を透過する, Pool pool)
{
if (!File.Exists(strファイル名)) // #27122 2012.1.13 from: ImageInformation では FileNotFound 例外は返ってこないので、ここで自分でチェックする。わかりやすいログのために。
throw new FileNotFoundException(string.Format("ファイルが存在しません。\n[{0}]", strファイル名));
Byte[] _txData = File.ReadAllBytes(strファイル名);
MakeTexture(device, _txData, format, b黒を透過する, pool);
}
public CTexture(Device device, byte[] txData, Format format, bool b黒を透過する, Pool pool)
: this()
{
MakeTexture(device, txData, format, b黒を透過する, pool);
}
public void MakeTexture(Device device, byte[] txData, Format format, bool b黒を透過する, Pool pool)
{
try
{
var information = ImageInformation.FromMemory(txData);
this.Format = format;
this.sz画像サイズ = new Size(information.Width, information.Height);
this.rc全画像 = new Rectangle(0, 0, this.sz画像サイズ.Width, this.sz画像サイズ.Height);
int colorKey = (b黒を透過する) ? unchecked((int)0xFF000000) : 0;
this.szテクスチャサイズ = this.t指定されたサイズを超えない最適なテクスチャサイズを返す(device, this.sz画像サイズ);
#if TEST_Direct3D9Ex
pool = poolvar;
#endif
// lock ( lockobj )
// {
//Trace.TraceInformation( "CTexture() start: " );
this.texture = Texture.FromMemory(device.UnderlyingDevice, txData, this.sz画像サイズ.Width, this.sz画像サイズ.Height, 1, Usage.None, format, pool, Filter.Point, Filter.None, colorKey);
//Trace.TraceInformation( "CTexture() end: " );
// }
}
catch
{
this.Dispose();
// throw new CTextureCreateFailedException( string.Format( "テクスチャの生成に失敗しました。\n{0}", strファイル名 ) );
throw new CTextureCreateFailedException(string.Format("テクスチャの生成に失敗しました。\n"));
}
}
public CTexture(Device device, Bitmap bitmap, Format format, bool b黒を透過する, Pool pool)
: this()
{
MakeTexture(device, bitmap, format, b黒を透過する, pool);
}
public void MakeTexture(Device device, Bitmap bitmap, Format format, bool b黒を透過する, Pool pool)
{
try
{
this.Format = format;
this.sz画像サイズ = new Size(bitmap.Width, bitmap.Height);
this.rc全画像 = new Rectangle(0, 0, this.sz画像サイズ.Width, this.sz画像サイズ.Height);
int colorKey = (b黒を透過する) ? unchecked((int)0xFF000000) : 0;
this.szテクスチャサイズ = this.t指定されたサイズを超えない最適なテクスチャサイズを返す(device, this.sz画像サイズ);
#if TEST_Direct3D9Ex
pool = poolvar;
#endif
//Trace.TraceInformation( "CTExture() start: " );
unsafe // Bitmapの内部データ(a8r8g8b8)を自前でゴリゴリコピーする
{
int tw =
#if TEST_Direct3D9Ex
288; // 32の倍数にする(グラフによっては2のべき乗にしないとダメかも)
#else
this.sz画像サイズ.Width;
#endif
#if TEST_Direct3D9Ex
this.texture = new Texture( device, tw, this.sz画像サイズ.Height, 1, Usage.Dynamic, format, Pool.Default );
#else
this.texture = new Texture(device.UnderlyingDevice, this.sz画像サイズ.Width, this.sz画像サイズ.Height, 1, Usage.None, format, pool);
#endif
BitmapData srcBufData = bitmap.LockBits(new Rectangle(0, 0, this.sz画像サイズ.Width, this.sz画像サイズ.Height), ImageLockMode.ReadOnly, PixelFormat.Format32bppArgb);
DataRectangle destDataRectangle = texture.LockRectangle(0, LockFlags.Discard); // None
#if TEST_Direct3D9Ex
byte[] filldata = null;
if ( tw > this.sz画像サイズ.Width )
{
filldata = new byte[ (tw - this.sz画像サイズ.Width) * 4 ];
}
for ( int y = 0; y < this.sz画像サイズ.Height; y++ )
{
IntPtr src_scan0 = (IntPtr) ( (Int64) srcBufData.Scan0 + y * srcBufData.Stride );
destDataRectangle.Data.WriteRange( src_scan0, this.sz画像サイズ.Width * 4 );
if ( tw > this.sz画像サイズ.Width )
{
destDataRectangle.Data.WriteRange( filldata );
}
}
#else
IntPtr src_scan0 = (IntPtr)((Int64)srcBufData.Scan0);
destDataRectangle.Data.WriteRange(src_scan0, this.sz画像サイズ.Width * 4 * this.sz画像サイズ.Height);
#endif
texture.UnlockRectangle(0);
bitmap.UnlockBits(srcBufData);
}
//Trace.TraceInformation( "CTExture() End: " );
}
catch
{
this.Dispose();
// throw new CTextureCreateFailedException( string.Format( "テクスチャの生成に失敗しました。\n{0}", strファイル名 ) );
throw new CTextureCreateFailedException(string.Format("テクスチャの生成に失敗しました。\n"));
}
}
// メソッド
// 2016.11.10 kairera0467 拡張
// Rectangleを使う場合、座標調整のためにテクスチャサイズの値をそのまま使うとまずいことになるため、Rectragleから幅を取得して調整をする。
public void t2D中心基準描画(Device device, int x, int y)
{
this.t2D描画(device, x - (this.szテクスチャサイズ.Width / 2), y - (this.szテクスチャサイズ.Height / 2), 1f, this.rc全画像);
}
public void t2D中心基準描画(Device device, int x, int y, Rectangle rc画像内の描画領域)
{
this.t2D描画(device, x - (rc画像内の描画領域.Width / 2), y - (rc画像内の描画領域.Height / 2), 1f, rc画像内の描画領域);
}
public void t2D中心基準描画(Device device, float x, float y)
{
this.t2D描画(device, (int)x - (this.szテクスチャサイズ.Width / 2), (int)y - (this.szテクスチャサイズ.Height / 2), 1f, this.rc全画像);
}
public void t2D中心基準描画(Device device, float x, float y, Rectangle rc画像内の描画領域)
{
this.t2D描画(device, (int)x - (rc画像内の描画領域.Width / 2), (int)y - (rc画像内の描画領域.Height / 2), 1.0f, rc画像内の描画領域);
}
public void t2D中心基準描画(Device device, float x, float y, float depth, Rectangle rc画像内の描画領域)
{
this.t2D描画(device, (int)x - (rc画像内の描画領域.Width / 2), (int)y - (rc画像内の描画領域.Height / 2), depth, rc画像内の描画領域);
}
// 下を基準にして描画する(拡大率考慮)メソッドを追加。 (AioiLight)
public void t2D拡大率考慮下基準描画(Device device, int x, int y)
{
this.t2D描画(device, x, y - (szテクスチャサイズ.Height * this.vc拡大縮小倍率.Y), 1f, this.rc全画像);
}
public void t2D拡大率考慮下基準描画(Device device, int x, int y, Rectangle rc画像内の描画領域)
{
this.t2D描画(device, x, y - (rc画像内の描画領域.Height * this.vc拡大縮小倍率.Y), 1f, rc画像内の描画領域);
}
public void t2D拡大率考慮下中心基準描画(Device device, int x, int y)
{
this.t2D描画(device, x - (this.szテクスチャサイズ.Width / 2 * this.vc拡大縮小倍率.X), y - (szテクスチャサイズ.Height * this.vc拡大縮小倍率.Y), 1f, this.rc全画像);
}
public void t2D拡大率考慮下中心基準描画(Device device, float x, float y)
{
this.t2D拡大率考慮下中心基準描画(device, (int)x, (int)y);
}
public void t2D拡大率考慮下中心基準描画(Device device, int x, int y, Rectangle rc画像内の描画領域)
{
this.t2D描画(device, x - ((rc画像内の描画領域.Width / 2)), y - (rc画像内の描画領域.Height * this.vc拡大縮小倍率.Y), 1f, rc画像内の描画領域);
}
public void t2D拡大率考慮下中心基準描画(Device device, float x, float y, Rectangle rc画像内の描画領域)
{
this.t2D拡大率考慮下中心基準描画(device, (int)x, (int)y, rc画像内の描画領域);
}
public void t2D下中央基準描画(Device device, int x, int y)
{
this.t2D描画(device, x - (this.szテクスチャサイズ.Width / 2), y - (szテクスチャサイズ.Height), this.rc全画像);
}
public void t2D下中央基準描画(Device device, int x, int y, Rectangle rc画像内の描画領域)
{
this.t2D描画(device, x - (rc画像内の描画領域.Width / 2), y - (rc画像内の描画領域.Height), rc画像内の描画領域);
//this.t2D描画(devicek x, y, rc画像内の描画領域;
}
public void t2D拡大率考慮中央基準描画(Device device, int x, int y)
{
this.t2D描画(device, x - (this.szテクスチャサイズ.Width / 2 * this.vc拡大縮小倍率.X), y - (szテクスチャサイズ.Height / 2 * this.vc拡大縮小倍率.Y), 1f, this.rc全画像);
}
public void t2D拡大率考慮中央基準描画(Device device, int x, int y, RectangleF rc)
{
this.t2D描画(device, x - (rc.Width / 2 * this.vc拡大縮小倍率.X), y - (rc.Height / 2 * this.vc拡大縮小倍率.Y), 1f, rc);
}
public void t2D拡大率考慮上中央基準描画(Device device, int x, int y, RectangleF rc)
{
this.t2D描画(device, x - (rc.Width / 2 * this.vc拡大縮小倍率.X), y, 1f, rc);
}
public void t2D拡大率考慮上中央基準描画(Device device, int x, int y)
{
this.t2D描画(device, x - (rc全画像.Width / 2 * this.vc拡大縮小倍率.X), y, 1f, rc全画像);
}
public void t2D拡大率考慮中央基準描画(Device device, float x, float y)
{
this.t2D描画(device, x - (this.szテクスチャサイズ.Width / 2 * this.vc拡大縮小倍率.X), y - (szテクスチャサイズ.Height / 2 * this.vc拡大縮小倍率.Y), 1f, this.rc全画像);
}
public void t2D拡大率考慮中央基準描画(Device device, float x, float y, RectangleF rc)
{
this.t2D描画(device, x - (rc.Width / 2 * this.vc拡大縮小倍率.X), y - (rc.Height / 2 * this.vc拡大縮小倍率.Y), 1f, rc);
}
public void t2D拡大率考慮描画(Device device, RefPnt refpnt, float x, float y)
{
this.t2D拡大率考慮描画(device, refpnt, x, y, rc全画像);
}
public void t2D拡大率考慮描画(Device device, RefPnt refpnt, float x, float y, Rectangle rect)
{
this.t2D拡大率考慮描画(device, refpnt, x, y, 1f, rect);
}
public void t2D拡大率考慮描画(Device device, RefPnt refpnt, float x, float y, float depth, Rectangle rect)
{
switch (refpnt)
{
case RefPnt.UpLeft:
this.t2D描画(device, x, y, depth, rect);
break;
case RefPnt.Up:
this.t2D描画(device, x - (rect.Width / 2 * this.vc拡大縮小倍率.X), y, depth, rect);
break;
case RefPnt.UpRight:
this.t2D描画(device, x - rect.Width * this.vc拡大縮小倍率.X, y, depth, rect);
break;
case RefPnt.Left:
this.t2D描画(device, x, y - (rect.Height / 2 * this.vc拡大縮小倍率.Y), depth, rect);
break;
case RefPnt.Center:
this.t2D描画(device, x - (rect.Width / 2 * this.vc拡大縮小倍率.X), y - (rect.Height / 2 * this.vc拡大縮小倍率.Y), depth, rect);
break;
case RefPnt.Right:
this.t2D描画(device, x - rect.Width * this.vc拡大縮小倍率.X, y - (rect.Height / 2 * this.vc拡大縮小倍率.Y), depth, rect);
break;
case RefPnt.DownLeft:
this.t2D描画(device, x, y - rect.Height * this.vc拡大縮小倍率.Y, depth, rect);
break;
case RefPnt.Down:
this.t2D描画(device, x - (rect.Width / 2 * this.vc拡大縮小倍率.X), y - rect.Height * this.vc拡大縮小倍率.Y, depth, rect);
break;
case RefPnt.DownRight:
this.t2D描画(device, x - rect.Width * this.vc拡大縮小倍率.X, y - rect.Height * this.vc拡大縮小倍率.Y, depth, rect);
break;
default:
break;
}
}
public enum RefPnt
{
UpLeft,
Up,
UpRight,
Left,
Center,
Right,
DownLeft,
Down,
DownRight,
}
/// <summary>
/// テクスチャを 2D 画像と見なして描画する。
/// </summary>
/// <param name="device">Direct3D9 デバイス。</param>
/// <param name="x">描画位置(テクスチャの左上位置の X 座標[dot])。</param>
/// <param name="y">描画位置(テクスチャの左上位置の Y 座標[dot])。</param>
public void t2D描画(Device device, int x, int y)
{
this.t2D描画(device, x, y, 1f, this.rc全画像);
}
public void t2D描画(Device device, int x, int y, RectangleF rc画像内の描画領域)
{
this.t2D描画(device, x, y, 1f, rc画像内の描画領域);
}
public void t2D描画(Device device, float x, float y)
{
this.t2D描画(device, (int)x, (int)y, 1f, this.rc全画像);
}
public void t2D描画(Device device, float x, float y, RectangleF rc画像内の描画領域)
{
this.t2D描画(device, (int)x, (int)y, 1f, rc画像内の描画領域);
}
public void t2D描画(Device device, float x, float y, float depth, RectangleF rc画像内の描画領域)
{
if (this.texture == null)
return;
this.tレンダリングステートの設定(device);
if (this.fZ軸中心回転 == 0f)
{
#region [ (A) ]
//-----------------
float f補正値X = -0.5f; // -0.5 は座標とピクセルの誤差を吸収するための座標補正値。(MSDN参照)
float f補正値Y = -0.5f; //
float w = rc画像内の描画領域.Width;
float h = rc画像内の描画領域.Height;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvTransformedColoredVertexies == null)
this.cvTransformedColoredVertexies = new TransformedColoredTexturedVertex[4];
// #27122 2012.1.13 from: 以下、マネージドオブジェクトガベージの量産を抑えるため、new は使わず、メンバに値を1つずつ直接上書きする。
this.cvTransformedColoredVertexies[0].Position.X = x + f補正値X;
this.cvTransformedColoredVertexies[0].Position.Y = y + f補正値Y;
this.cvTransformedColoredVertexies[0].Position.Z = depth;
this.cvTransformedColoredVertexies[0].Position.W = 1.0f;
this.cvTransformedColoredVertexies[0].Color = color;
this.cvTransformedColoredVertexies[0].TextureCoordinates.X = f左U値;
this.cvTransformedColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[1].Position.X = (x + (w * this.vc拡大縮小倍率.X)) + f補正値X;
this.cvTransformedColoredVertexies[1].Position.Y = y + f補正値Y;
this.cvTransformedColoredVertexies[1].Position.Z = depth;
this.cvTransformedColoredVertexies[1].Position.W = 1.0f;
this.cvTransformedColoredVertexies[1].Color = color;
this.cvTransformedColoredVertexies[1].TextureCoordinates.X = f右U値;
this.cvTransformedColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[2].Position.X = x + f補正値X;
this.cvTransformedColoredVertexies[2].Position.Y = (y + (h * this.vc拡大縮小倍率.Y)) + f補正値Y;
this.cvTransformedColoredVertexies[2].Position.Z = depth;
this.cvTransformedColoredVertexies[2].Position.W = 1.0f;
this.cvTransformedColoredVertexies[2].Color = color;
this.cvTransformedColoredVertexies[2].TextureCoordinates.X = f左U値;
this.cvTransformedColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvTransformedColoredVertexies[3].Position.X = (x + (w * this.vc拡大縮小倍率.X)) + f補正値X;
this.cvTransformedColoredVertexies[3].Position.Y = (y + (h * this.vc拡大縮小倍率.Y)) + f補正値Y;
this.cvTransformedColoredVertexies[3].Position.Z = depth;
this.cvTransformedColoredVertexies[3].Position.W = 1.0f;
this.cvTransformedColoredVertexies[3].Color = color;
this.cvTransformedColoredVertexies[3].TextureCoordinates.X = f右U値;
this.cvTransformedColoredVertexies[3].TextureCoordinates.Y = f下V値;
device.SetTexture(0, this.texture);
device.VertexFormat = TransformedColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 0, 2, in this.cvTransformedColoredVertexies);
//-----------------
#endregion
}
else
{
#region [ (B) ]
//-----------------
float f補正値X = ((rc画像内の描画領域.Width % 2) == 0) ? -0.5f : 0f; // -0.5 は座標とピクセルの誤差を吸収するための座標補正値。(MSDN参照)
float f補正値Y = ((rc画像内の描画領域.Height % 2) == 0) ? -0.5f : 0f; // 3D回転するなら補正はいらない。
float f中央X = ((float)rc画像内の描画領域.Width) / 2f;
float f中央Y = ((float)rc画像内の描画領域.Height) / 2f;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvPositionColoredVertexies == null)
this.cvPositionColoredVertexies = new PositionColoredTexturedVertex[4];
// #27122 2012.1.13 from: 以下、マネージドオブジェクトガベージの量産を抑えるため、new は使わず、メンバに値を1つずつ直接上書きする。
this.cvPositionColoredVertexies[0].Position.X = -f中央X + f補正値X;
this.cvPositionColoredVertexies[0].Position.Y = f中央Y + f補正値Y;
this.cvPositionColoredVertexies[0].Position.Z = depth;
this.cvPositionColoredVertexies[0].Color = color;
this.cvPositionColoredVertexies[0].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[1].Position.X = f中央X + f補正値X;
this.cvPositionColoredVertexies[1].Position.Y = f中央Y + f補正値Y;
this.cvPositionColoredVertexies[1].Position.Z = depth;
this.cvPositionColoredVertexies[1].Color = color;
this.cvPositionColoredVertexies[1].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[2].Position.X = -f中央X + f補正値X;
this.cvPositionColoredVertexies[2].Position.Y = -f中央Y + f補正値Y;
this.cvPositionColoredVertexies[2].Position.Z = depth;
this.cvPositionColoredVertexies[2].Color = color;
this.cvPositionColoredVertexies[2].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvPositionColoredVertexies[3].Position.X = f中央X + f補正値X;
this.cvPositionColoredVertexies[3].Position.Y = -f中央Y + f補正値Y;
this.cvPositionColoredVertexies[3].Position.Z = depth;
this.cvPositionColoredVertexies[3].Color = color;
this.cvPositionColoredVertexies[3].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[3].TextureCoordinates.Y = f下V値;
float n描画領域内X = x + (rc画像内の描画領域.Width / 2.0f);
float n描画領域内Y = y + (rc画像内の描画領域.Height / 2.0f);
var vc3移動量 = new Vector3(n描画領域内X - (((float)device.Viewport.Width) / 2f), -(n描画領域内Y - (((float)device.Viewport.Height) / 2f)), 0f);
var matrix = Matrix.Identity * Matrix.Scaling(this.vc拡大縮小倍率);
matrix *= Matrix.RotationZ(this.fZ軸中心回転);
matrix *= Matrix.Translation(vc3移動量);
device.SetTransform(TransformState.World, matrix);
device.SetTexture(0, this.texture);
device.VertexFormat = PositionColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 2, in this.cvPositionColoredVertexies);
//-----------------
#endregion
}
}
public void t2D描画(Device device, int x, int y, float depth, Rectangle rc画像内の描画領域)
{
if (this.texture == null)
return;
this.tレンダリングステートの設定(device);
if (this.fZ軸中心回転 == 0f)
{
#region [ (A) ]
//-----------------
float f補正値X = -0.5f; // -0.5 は座標とピクセルの誤差を吸収するための座標補正値。(MSDN参照)
float f補正値Y = -0.5f; //
float w = rc画像内の描画領域.Width;
float h = rc画像内の描画領域.Height;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvTransformedColoredVertexies == null)
this.cvTransformedColoredVertexies = new TransformedColoredTexturedVertex[4];
// #27122 2012.1.13 from: 以下、マネージドオブジェクトガベージの量産を抑えるため、new は使わず、メンバに値を1つずつ直接上書きする。
this.cvTransformedColoredVertexies[0].Position.X = x + f補正値X;
this.cvTransformedColoredVertexies[0].Position.Y = y + f補正値Y;
this.cvTransformedColoredVertexies[0].Position.Z = depth;
this.cvTransformedColoredVertexies[0].Position.W = 1.0f;
this.cvTransformedColoredVertexies[0].Color = color;
this.cvTransformedColoredVertexies[0].TextureCoordinates.X = f左U値;
this.cvTransformedColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[1].Position.X = (x + (w * this.vc拡大縮小倍率.X)) + f補正値X;
this.cvTransformedColoredVertexies[1].Position.Y = y + f補正値Y;
this.cvTransformedColoredVertexies[1].Position.Z = depth;
this.cvTransformedColoredVertexies[1].Position.W = 1.0f;
this.cvTransformedColoredVertexies[1].Color = color;
this.cvTransformedColoredVertexies[1].TextureCoordinates.X = f右U値;
this.cvTransformedColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[2].Position.X = x + f補正値X;
this.cvTransformedColoredVertexies[2].Position.Y = (y + (h * this.vc拡大縮小倍率.Y)) + f補正値Y;
this.cvTransformedColoredVertexies[2].Position.Z = depth;
this.cvTransformedColoredVertexies[2].Position.W = 1.0f;
this.cvTransformedColoredVertexies[2].Color = color;
this.cvTransformedColoredVertexies[2].TextureCoordinates.X = f左U値;
this.cvTransformedColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvTransformedColoredVertexies[3].Position.X = (x + (w * this.vc拡大縮小倍率.X)) + f補正値X;
this.cvTransformedColoredVertexies[3].Position.Y = (y + (h * this.vc拡大縮小倍率.Y)) + f補正値Y;
this.cvTransformedColoredVertexies[3].Position.Z = depth;
this.cvTransformedColoredVertexies[3].Position.W = 1.0f;
this.cvTransformedColoredVertexies[3].Color = color;
this.cvTransformedColoredVertexies[3].TextureCoordinates.X = f右U値;
this.cvTransformedColoredVertexies[3].TextureCoordinates.Y = f下V値;
device.SetTexture(0, this.texture);
device.VertexFormat = TransformedColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 0, 2, in this.cvTransformedColoredVertexies);
//-----------------
#endregion
}
else
{
#region [ (B) ]
//-----------------
float f補正値X = ((rc画像内の描画領域.Width % 2) == 0) ? -0.5f : 0f; // -0.5 は座標とピクセルの誤差を吸収するための座標補正値。(MSDN参照)
float f補正値Y = ((rc画像内の描画領域.Height % 2) == 0) ? -0.5f : 0f; // 3D回転するなら補正はいらない。
float f中央X = ((float)rc画像内の描画領域.Width) / 2f;
float f中央Y = ((float)rc画像内の描画領域.Height) / 2f;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvPositionColoredVertexies == null)
this.cvPositionColoredVertexies = new PositionColoredTexturedVertex[4];
// #27122 2012.1.13 from: 以下、マネージドオブジェクトガベージの量産を抑えるため、new は使わず、メンバに値を1つずつ直接上書きする。
this.cvPositionColoredVertexies[0].Position.X = -f中央X + f補正値X;
this.cvPositionColoredVertexies[0].Position.Y = f中央Y + f補正値Y;
this.cvPositionColoredVertexies[0].Position.Z = depth;
this.cvPositionColoredVertexies[0].Color = color;
this.cvPositionColoredVertexies[0].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[1].Position.X = f中央X + f補正値X;
this.cvPositionColoredVertexies[1].Position.Y = f中央Y + f補正値Y;
this.cvPositionColoredVertexies[1].Position.Z = depth;
this.cvPositionColoredVertexies[1].Color = color;
this.cvPositionColoredVertexies[1].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[2].Position.X = -f中央X + f補正値X;
this.cvPositionColoredVertexies[2].Position.Y = -f中央Y + f補正値Y;
this.cvPositionColoredVertexies[2].Position.Z = depth;
this.cvPositionColoredVertexies[2].Color = color;
this.cvPositionColoredVertexies[2].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvPositionColoredVertexies[3].Position.X = f中央X + f補正値X;
this.cvPositionColoredVertexies[3].Position.Y = -f中央Y + f補正値Y;
this.cvPositionColoredVertexies[3].Position.Z = depth;
this.cvPositionColoredVertexies[3].Color = color;
this.cvPositionColoredVertexies[3].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[3].TextureCoordinates.Y = f下V値;
int n描画領域内X = x + (rc画像内の描画領域.Width / 2);
int n描画領域内Y = y + (rc画像内の描画領域.Height / 2);
var vc3移動量 = new Vector3(n描画領域内X - (((float)device.Viewport.Width) / 2f), -(n描画領域内Y - (((float)device.Viewport.Height) / 2f)), 0f);
var matrix = Matrix.Identity * Matrix.Scaling(this.vc拡大縮小倍率);
matrix *= Matrix.RotationZ(this.fZ軸中心回転);
matrix *= Matrix.Translation(vc3移動量);
device.SetTransform(TransformState.World, matrix);
device.SetTexture(0, this.texture);
device.VertexFormat = PositionColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 2, in this.cvPositionColoredVertexies);
//-----------------
#endregion
}
}
public void t2D上下反転描画(Device device, int x, int y)
{
this.t2D上下反転描画(device, x, y, 1f, this.rc全画像);
}
public void t2D上下反転描画(Device device, int x, int y, Rectangle rc画像内の描画領域)
{
this.t2D上下反転描画(device, x, y, 1f, rc画像内の描画領域);
}
public void t2D左右反転描画(Device device, int x, int y)
{
this.t2D左右反転描画(device, x, y, 1f, this.rc全画像);
}
public void t2D左右反転描画(Device device, float x, float y)
{
this.t2D左右反転描画(device, x, y, 1f, this.rc全画像);
}
public void t2D左右反転描画(Device device, int x, int y, Rectangle rc画像内の描画領域)
{
this.t2D左右反転描画(device, x, y, 1f, rc画像内の描画領域);
}
public void t2D左右反転描画(Device device, float x, float y, float depth, Rectangle rc画像内の描画領域)
{
if (this.texture == null)
throw new InvalidOperationException("テクスチャは生成されていません。");
this.tレンダリングステートの設定(device);
float fx = x * CTexture.f画面比率 + CTexture.rc物理画面描画領域.X - 0.5f; // -0.5 は座標とピクセルの誤差を吸収するための座標補正値。(MSDN参照)
float fy = y * CTexture.f画面比率 + CTexture.rc物理画面描画領域.Y - 0.5f; //
float w = rc画像内の描画領域.Width * this.vc拡大縮小倍率.X * CTexture.f画面比率;
float h = rc画像内の描画領域.Height * this.vc拡大縮小倍率.Y * CTexture.f画面比率;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvTransformedColoredVertexies == null)
this.cvTransformedColoredVertexies = new TransformedColoredTexturedVertex[4];
// 以下、マネージドオブジェクトの量産を抑えるため new は使わない。
this.cvTransformedColoredVertexies[0].TextureCoordinates.X = f右U値; // 左上 → 左下
this.cvTransformedColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[0].Position.X = fx;
this.cvTransformedColoredVertexies[0].Position.Y = fy;
this.cvTransformedColoredVertexies[0].Position.Z = depth;
this.cvTransformedColoredVertexies[0].Position.W = 1.0f;
this.cvTransformedColoredVertexies[0].Color = color;
this.cvTransformedColoredVertexies[1].TextureCoordinates.X = f左U値; // 右上 → 右下
this.cvTransformedColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[1].Position.X = fx + w;
this.cvTransformedColoredVertexies[1].Position.Y = fy;
this.cvTransformedColoredVertexies[1].Position.Z = depth;
this.cvTransformedColoredVertexies[1].Position.W = 1.0f;
this.cvTransformedColoredVertexies[1].Color = color;
this.cvTransformedColoredVertexies[2].TextureCoordinates.X = f右U値; // 左下 → 左上
this.cvTransformedColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvTransformedColoredVertexies[2].Position.X = fx;
this.cvTransformedColoredVertexies[2].Position.Y = fy + h;
this.cvTransformedColoredVertexies[2].Position.Z = depth;
this.cvTransformedColoredVertexies[2].Position.W = 1.0f;
this.cvTransformedColoredVertexies[2].Color = color;
this.cvTransformedColoredVertexies[3].TextureCoordinates.X = f左U値; // 右下 → 右上
this.cvTransformedColoredVertexies[3].TextureCoordinates.Y = f下V値;
this.cvTransformedColoredVertexies[3].Position.X = fx + w;
this.cvTransformedColoredVertexies[3].Position.Y = fy + h;
this.cvTransformedColoredVertexies[3].Position.Z = depth;
this.cvTransformedColoredVertexies[3].Position.W = 1.0f;
this.cvTransformedColoredVertexies[3].Color = color;
device.SetTexture(0, this.texture);
device.VertexFormat = TransformedColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 2, this.cvTransformedColoredVertexies);
}
public void t2D上下反転描画(Device device, int x, int y, float depth, Rectangle rc画像内の描画領域)
{
if (this.texture == null)
throw new InvalidOperationException("テクスチャは生成されていません。");
this.tレンダリングステートの設定(device);
float fx = x * CTexture.f画面比率 + CTexture.rc物理画面描画領域.X - 0.5f; // -0.5 は座標とピクセルの誤差を吸収するための座標補正値。(MSDN参照)
float fy = y * CTexture.f画面比率 + CTexture.rc物理画面描画領域.Y - 0.5f; //
float w = rc画像内の描画領域.Width * this.vc拡大縮小倍率.X * CTexture.f画面比率;
float h = rc画像内の描画領域.Height * this.vc拡大縮小倍率.Y * CTexture.f画面比率;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvTransformedColoredVertexies == null)
this.cvTransformedColoredVertexies = new TransformedColoredTexturedVertex[4];
// 以下、マネージドオブジェクトの量産を抑えるため new は使わない。
this.cvTransformedColoredVertexies[0].TextureCoordinates.X = f左U値; // 左上 → 左下
this.cvTransformedColoredVertexies[0].TextureCoordinates.Y = f下V値;
this.cvTransformedColoredVertexies[0].Position.X = fx;
this.cvTransformedColoredVertexies[0].Position.Y = fy;
this.cvTransformedColoredVertexies[0].Position.Z = depth;
this.cvTransformedColoredVertexies[0].Position.W = 1.0f;
this.cvTransformedColoredVertexies[0].Color = color;
this.cvTransformedColoredVertexies[1].TextureCoordinates.X = f右U値; // 右上 → 右下
this.cvTransformedColoredVertexies[1].TextureCoordinates.Y = f下V値;
this.cvTransformedColoredVertexies[1].Position.X = fx + w;
this.cvTransformedColoredVertexies[1].Position.Y = fy;
this.cvTransformedColoredVertexies[1].Position.Z = depth;
this.cvTransformedColoredVertexies[1].Position.W = 1.0f;
this.cvTransformedColoredVertexies[1].Color = color;
this.cvTransformedColoredVertexies[2].TextureCoordinates.X = f左U値; // 左下 → 左上
this.cvTransformedColoredVertexies[2].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[2].Position.X = fx;
this.cvTransformedColoredVertexies[2].Position.Y = fy + h;
this.cvTransformedColoredVertexies[2].Position.Z = depth;
this.cvTransformedColoredVertexies[2].Position.W = 1.0f;
this.cvTransformedColoredVertexies[2].Color = color;
this.cvTransformedColoredVertexies[3].TextureCoordinates.X = f右U値; // 右下 → 右上
this.cvTransformedColoredVertexies[3].TextureCoordinates.Y = f上V値;
this.cvTransformedColoredVertexies[3].Position.X = fx + w;
this.cvTransformedColoredVertexies[3].Position.Y = fy + h;
this.cvTransformedColoredVertexies[3].Position.Z = depth;
this.cvTransformedColoredVertexies[3].Position.W = 1.0f;
this.cvTransformedColoredVertexies[3].Color = color;
device.SetTexture(0, this.texture);
device.VertexFormat = TransformedColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 2, in this.cvTransformedColoredVertexies);
}
public void t2D上下反転描画(Device device, Point pt)
{
this.t2D上下反転描画(device, pt.X, pt.Y, 1f, this.rc全画像);
}
public void t2D上下反転描画(Device device, Point pt, Rectangle rc画像内の描画領域)
{
this.t2D上下反転描画(device, pt.X, pt.Y, 1f, rc画像内の描画領域);
}
public void t2D上下反転描画(Device device, Point pt, float depth, Rectangle rc画像内の描画領域)
{
this.t2D上下反転描画(device, pt.X, pt.Y, depth, rc画像内の描画領域);
}
public static Vector3 t論理画面座標をワールド座標へ変換する(int x, int y)
{
return CTexture.t論理画面座標をワールド座標へ変換する(new Vector3((float)x, (float)y, 0f));
}
public static Vector3 t論理画面座標をワールド座標へ変換する(float x, float y)
{
return CTexture.t論理画面座標をワールド座標へ変換する(new Vector3(x, y, 0f));
}
public static Vector3 t論理画面座標をワールド座標へ変換する(Point pt論理画面座標)
{
return CTexture.t論理画面座標をワールド座標へ変換する(new Vector3(pt論理画面座標.X, pt論理画面座標.Y, 0.0f));
}
public static Vector3 t論理画面座標をワールド座標へ変換する(Vector2 v2論理画面座標)
{
return CTexture.t論理画面座標をワールド座標へ変換する(new Vector3(v2論理画面座標, 0f));
}
public static Vector3 t論理画面座標をワールド座標へ変換する(Vector3 v3論理画面座標)
{
return new Vector3(
(v3論理画面座標.X - (CTexture.sz論理画面.Width / 2.0f)) * CTexture.f画面比率,
(-(v3論理画面座標.Y - (CTexture.sz論理画面.Height / 2.0f)) * CTexture.f画面比率),
v3論理画面座標.Z);
}
/// <summary>
/// テクスチャを 3D 画像と見なして描画する。
/// </summary>
public void t3D描画(Device device, Matrix mat)
{
this.t3D描画(device, mat, this.rc全画像);
}
public void t3D描画(Device device, Matrix mat, Rectangle rc画像内の描画領域)
{
if (this.texture == null)
return;
float x = ((float)rc画像内の描画領域.Width) / 2f;
float y = ((float)rc画像内の描画領域.Height) / 2f;
float z = 0.0f;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvPositionColoredVertexies == null)
this.cvPositionColoredVertexies = new PositionColoredTexturedVertex[4];
// #27122 2012.1.13 from: 以下、マネージドオブジェクトガベージの量産を抑えるため、new は使わず、メンバに値を1つずつ直接上書きする。
this.cvPositionColoredVertexies[0].Position.X = -x;
this.cvPositionColoredVertexies[0].Position.Y = y;
this.cvPositionColoredVertexies[0].Position.Z = z;
this.cvPositionColoredVertexies[0].Color = color;
this.cvPositionColoredVertexies[0].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[1].Position.X = x;
this.cvPositionColoredVertexies[1].Position.Y = y;
this.cvPositionColoredVertexies[1].Position.Z = z;
this.cvPositionColoredVertexies[1].Color = color;
this.cvPositionColoredVertexies[1].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[2].Position.X = -x;
this.cvPositionColoredVertexies[2].Position.Y = -y;
this.cvPositionColoredVertexies[2].Position.Z = z;
this.cvPositionColoredVertexies[2].Color = color;
this.cvPositionColoredVertexies[2].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvPositionColoredVertexies[3].Position.X = x;
this.cvPositionColoredVertexies[3].Position.Y = -y;
this.cvPositionColoredVertexies[3].Position.Z = z;
this.cvPositionColoredVertexies[3].Color = color;
this.cvPositionColoredVertexies[3].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[3].TextureCoordinates.Y = f下V値;
this.tレンダリングステートの設定(device);
device.SetTransform(TransformState.World, mat);
device.SetTexture(0, this.texture);
device.VertexFormat = PositionColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 2, in this.cvPositionColoredVertexies);
}
public void t3D左上基準描画(Device device, Matrix mat)
{
this.t3D左上基準描画(device, mat, this.rc全画像);
}
/// <summary>
/// ○覚書
/// SlimDX.Matrix mat = SlimDX.Matrix.Identity;
/// mat *= SlimDX.Matrix.Translation( x, y, z );
/// 「mat =」ではなく「mat *=」であることを忘れないこと。
/// </summary>
public void t3D左上基準描画(Device device, Matrix mat, Rectangle rc画像内の描画領域)
{
//とりあえず補正値などは無し。にしても使う機会少なさそうだなー
if (this.texture == null)
return;
float x = 0.0f;
float y = 0.0f;
float z = 0.0f;
float f左U値 = ((float)rc画像内の描画領域.Left) / ((float)this.szテクスチャサイズ.Width);
float f右U値 = ((float)rc画像内の描画領域.Right) / ((float)this.szテクスチャサイズ.Width);
float f上V値 = ((float)rc画像内の描画領域.Top) / ((float)this.szテクスチャサイズ.Height);
float f下V値 = ((float)rc画像内の描画領域.Bottom) / ((float)this.szテクスチャサイズ.Height);
this.color4.Alpha = ((float)this._opacity) / 255f;
int color = this.color4.ToArgb();
if (this.cvPositionColoredVertexies == null)
this.cvPositionColoredVertexies = new PositionColoredTexturedVertex[4];
// #27122 2012.1.13 from: 以下、マネージドオブジェクトガベージの量産を抑えるため、new は使わず、メンバに値を1つずつ直接上書きする。
this.cvPositionColoredVertexies[0].Position.X = -x;
this.cvPositionColoredVertexies[0].Position.Y = y;
this.cvPositionColoredVertexies[0].Position.Z = z;
this.cvPositionColoredVertexies[0].Color = color;
this.cvPositionColoredVertexies[0].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[0].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[1].Position.X = x;
this.cvPositionColoredVertexies[1].Position.Y = y;
this.cvPositionColoredVertexies[1].Position.Z = z;
this.cvPositionColoredVertexies[1].Color = color;
this.cvPositionColoredVertexies[1].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[1].TextureCoordinates.Y = f上V値;
this.cvPositionColoredVertexies[2].Position.X = -x;
this.cvPositionColoredVertexies[2].Position.Y = -y;
this.cvPositionColoredVertexies[2].Position.Z = z;
this.cvPositionColoredVertexies[2].Color = color;
this.cvPositionColoredVertexies[2].TextureCoordinates.X = f左U値;
this.cvPositionColoredVertexies[2].TextureCoordinates.Y = f下V値;
this.cvPositionColoredVertexies[3].Position.X = x;
this.cvPositionColoredVertexies[3].Position.Y = -y;
this.cvPositionColoredVertexies[3].Position.Z = z;
this.cvPositionColoredVertexies[3].Color = color;
this.cvPositionColoredVertexies[3].TextureCoordinates.X = f右U値;
this.cvPositionColoredVertexies[3].TextureCoordinates.Y = f下V値;
this.tレンダリングステートの設定(device);
device.SetTransform(TransformState.World, mat);
device.SetTexture(0, this.texture);
device.VertexFormat = PositionColoredTexturedVertex.Format;
device.DrawUserPrimitives(PrimitiveType.TriangleStrip, 2, in this.cvPositionColoredVertexies);
}
#region [ IDisposable ]
//-----------------
public void Dispose()
{
if (!this.bDispose完了済み)
{
// テクスチャの破棄
if (this.texture != null)
{
this.texture.Dispose();
this.texture = null;
}
this.bDispose完了済み = true;
}
}
//-----------------
#endregion
// その他
#region [ private ]
//-----------------
private int _opacity;
private bool bDispose完了済み;
private PositionColoredTexturedVertex[] cvPositionColoredVertexies;
protected TransformedColoredTexturedVertex[] cvTransformedColoredVertexies = new TransformedColoredTexturedVertex[]
{
new TransformedColoredTexturedVertex(),
new TransformedColoredTexturedVertex(),
new TransformedColoredTexturedVertex(),
new TransformedColoredTexturedVertex(),
};
private const Pool poolvar = // 2011.4.25 yyagi
#if TEST_Direct3D9Ex
Pool.Default;
#else
Pool.Managed;
#endif
// byte[] _txData;
static object lockobj = new object();
/// <summary>
/// どれか一つが有効になります。
/// </summary>
/// <param name="device">Direct3Dのデバイス</param>
private void tレンダリングステートの設定(Device device)
{
if (this.b加算合成)
{
device.SetRenderState(RenderState.SourceBlend, SlimDX.Direct3D9.Blend.SourceAlpha); // 5
device.SetRenderState(RenderState.DestinationBlend, SlimDX.Direct3D9.Blend.One); // 2
}
else if (this.b乗算合成)
{
//参考:http://sylphylunar.seesaa.net/article/390331341.html
//C++から引っ張ってきたのでちょっと不安。
device.SetRenderState(RenderState.SourceBlend, SlimDX.Direct3D9.Blend.DestinationColor);
device.SetRenderState(RenderState.DestinationBlend, SlimDX.Direct3D9.Blend.Zero);
}
else if (this.b減算合成)
{
//参考:http://www3.pf-x.net/~chopper/home2/DirectX/MD20.html
device.SetRenderState(RenderState.BlendOperation, SlimDX.Direct3D9.BlendOperation.Subtract);
device.SetRenderState(RenderState.SourceBlend, SlimDX.Direct3D9.Blend.One);
device.SetRenderState(RenderState.DestinationBlend, SlimDX.Direct3D9.Blend.One);
}
else if (this.bスクリーン合成)
{
//参考:http://sylphylunar.seesaa.net/article/390331341.html
//C++から引っ張ってきたのでちょっと不安。
device.SetRenderState(RenderState.SourceBlend, SlimDX.Direct3D9.Blend.InverseDestinationColor);
device.SetRenderState(RenderState.DestinationBlend, SlimDX.Direct3D9.Blend.One);
}
else
{
device.SetRenderState(RenderState.SourceBlend, SlimDX.Direct3D9.Blend.SourceAlpha); // 5
device.SetRenderState(RenderState.DestinationBlend, SlimDX.Direct3D9.Blend.InverseSourceAlpha); // 6
}
}
private Size t指定されたサイズを超えない最適なテクスチャサイズを返す(Device device, Size sz指定サイズ)
{
var deviceCapabilities = device.Capabilities;
var deviceCapabilitiesTextureCaps = deviceCapabilities.TextureCaps;
bool b条件付きでサイズはの累乗でなくてもOK = (deviceCapabilitiesTextureCaps & TextureCaps.NonPow2Conditional) != 0;
bool bサイズはの累乗でなければならない = (deviceCapabilitiesTextureCaps & TextureCaps.Pow2) != 0;
bool b正方形でなければならない = (deviceCapabilitiesTextureCaps & TextureCaps.SquareOnly) != 0;
int n最大幅 = deviceCapabilities.MaxTextureWidth;
int n最大高 = deviceCapabilities.MaxTextureHeight;
var szサイズ = new Size(sz指定サイズ.Width, sz指定サイズ.Height);
if (bサイズはの累乗でなければならない && !b条件付きでサイズはの累乗でなくてもOK)
{
// 幅を2の累乗にする
int n = 1;
do
{
n *= 2;
}
while (n <= sz指定サイズ.Width);
sz指定サイズ.Width = n;
// 高さを2の累乗にする
n = 1;
do
{
n *= 2;
}
while (n <= sz指定サイズ.Height);
sz指定サイズ.Height = n;
}
if (sz指定サイズ.Width > n最大幅)
sz指定サイズ.Width = n最大幅;
if (sz指定サイズ.Height > n最大高)
sz指定サイズ.Height = n最大高;
if (b正方形でなければならない)
{
if (szサイズ.Width > szサイズ.Height)
{
szサイズ.Height = szサイズ.Width;
}
else if (szサイズ.Width < szサイズ.Height)
{
szサイズ.Width = szサイズ.Height;
}
}
return szサイズ;
}
// 2012.3.21 さらなる new の省略作戦
protected Rectangle rc全画像; // テクスチャ作ったらあとは不変
public Color4 color4 = new Color4(1f, 1f, 1f, 1f); // アルファ以外は不変
//-----------------
#endregion
}
}