土曜日, 1月 3, 2026
No menu items!
ホーム ブログ ページ 1832

『ミナシゴノシゴト』4.5周年イベント開催!豪華景品とキャラ追加!🎉

📌 内容
合同会社EXNOAは、ターン制コマンドバトルRPG『ミナシゴノシゴト』の4.5周年イベントを8月14日(木)にメンテナンス後に発表し、開催しました。このイベントは、日本国内を対象に行われ、特別ログインボーナス、交換所の解放、SSR排出率が3倍の武器ガチャなどが内容に含まれています。また、新キャラクターも多数追加され、最大150連の無料ガチャも実施されるため、プレイヤーにとって魅力的な内容が盛りだくさんです。CEOは村中悠介氏で、公式サイトやX(旧Twitter)を通じて情報が発信されています。

📊 詳細データ

  • イベント日:2025年8月14日(木)~9月1日(月)
  • 記念イベント内容:「4.5周年特別イベント」「ログインボーナス」「SSR排出率3倍ガチャ」
  • 無料ガチャ:最大150連無料10連チケットガチャ
  • プレゼントキャンペーン:10,000円分のAmazonギフトカードが抽選で45名
  • ゲームタイトル:『ミナシゴノシゴト』

公式リンクはこちらからご覧いただけます:『ミナシゴノシゴト』公式サイト

🧠 編集部の見解:
この記事では、合同会社EXNOAによるターン制コマンドバトルRPG『ミナシゴノシゴト』の4.5周年イベントが紹介されています。感想として、このゲームがしっかりとしたコミュニティを築いている様子が伺え、プレイヤーに対する楽しみや感謝の気持ちが伝わります。特に、周年記念のログインボーナスやガチャのSSR排出率アップといったキャンペーンは、ユーザーにとって魅力的です。

### 関連事例
同様な周年イベントは、ほかの多くのゲームでも行われており、特にオンラインゲームやモバイルゲームでは一般的な手法となっています。例えば、人気のゲーム『Fate/Grand Order』や『アズールレーン』でも、周年イベントが盛大に行われ、多くの新キャラやアイテムが用意されています。

### 社会的影響
こうしたイベントは、ゲーム業界の経済に貢献するだけでなく、プレイヤー同士の絆を深める要素もあります。ゲームを通じて友人や仲間とつながり、共通の話題を持つことができます。最近の調査では、オンラインゲームが社交的なつながりを強化する役割を果たしていることが示されています。

### 豆知識
『ミナシゴノシゴト』のように、プレイヤーにとっての特別な体験を提供することは、ゲームの寿命を延ばす鍵となります。実際、ゲームにおける周年イベントは、開発者側とプレイヤー間の信頼を築く一環とされており、神秘的なキャラクターやストーリーも魅力の一部です。

総じて、周年イベントの充実ぶりからは、プレイヤーを大切にする姿勢が感じられ、長く楽しんでもらえるゲーム作りが徹底されている印象を受けます。これからのさらなる展開にも期待が高まりますね!

  • キーワード: 4.5周年イベント

    理由:

    このキーワードは、合同会社EXNOAが開催した『ミナシゴノシゴト』の4.5周年を記念する一連のイベントを中心に据え、重要な情報の核となっています。イベントの内容やキャンペーンが詳述されているため、注目すべきポイントです。

ミナシゴノシゴト をAmazonで探す

キャラクター をAmazonで探す

イベント をAmazonで探す


※以下、出典元
▶ 元記事を読む

Views: 0

INSTANT ALTER、Stanley Clarkeとの新曲8/15リリース!

📌 内容
NYとLAを拠点に活動するフューチャーフュージョン・バンドINSTANT ALTER(インスタント・オルター)が、2025年8月15日(金)にニューシングル「Oração Ao Tempo(オラサォン・アオ・テンポ)」をリリースします。これは、ブラジル音楽の巨匠Caetano Velosoの名曲を再解釈したカバー作品です。

このシングルは、Kassa Overallがプロデュースを手がけ、生演奏とエレクトロニック・サウンドの魅力的な対話を実現しています。また、4度のグラミー賞を受賞したベーシストStanley Clarkeが参加し、Natasha Agramaの詩的なヴォーカルと共鳴しています。リリースはSWEET SOUL RECORDSから行われます。

INSTANT ALTERは、失われた物語を新たに紡ぐべくCaetano Velosoの精神を受け継ぎ、聴く者に力を与えることを目指しています。この作品のリリースにより、ジャンルや世代を超えた音楽の交流が期待されています。

📊 詳細データ

  • イベント日:2025年8月15日(金)
  • 発売日:2025年8月15日(金)
  • アーティスト:INSTANT ALTER、Stanley Clarke
  • タイトル:「Oração Ao Tempo (feat. Kassa Overall)」
  • 配信リンク:INSTANT ALTER – Oração Ao Tempo

💬 編集部コメント:
INSTANT ALTERの新シングル「Oração Ao Tempo」の情報が公開され、社会的な視点から注目したいポイントがいくつかあります。

### 1. クロスカルチャーの融合
INSTANT ALTERは、NYとLAを拠点に活動し、ジャズとブラジル音楽に新しいアプローチを与えています。Caetano Velosoの名曲を再解釈することで、文化を超えた音楽の可能性を体現しており、異なるジャンルや世代をつなげる力があります。

### 2. セッションの多様性
サックス奏者Emilio Modesteや、4度のグラミー賞受賞歴があるStanley Clarkeなど、豪華なメンバーが参加。これにより、音楽の深みや広がりが増し、リスナーの心を捉えるきっかけとなります。

### 3. 社会的メッセージ
Caetano Velosoは音楽だけでなく、社会的・文化的な影響を持つアーティスト。INSTANT ALTERは彼の精神を引き継ぎ、混乱する時代の中で新たな物語を響かせ、聴く者に力を与えることを目指しています。

### 4. プロデューサーの影響
Kassa Overallが手がけたプロダクションは、生演奏とエレクトロニック音楽の融合を実現。これにより、音楽が持つ表現の幅が広がり、現代のリスナーに響くアプローチが増えています。

### 5. 初の試み
Stanley Clarke、Kassa Overall、Caetano Velosoが一つの作品で交わることは音楽史上初。これが示すのは、音楽界の枠を超えたコラボレーションの重要性です。新しい音楽の潮流を感じさせる、革新的な作品となりそうです。

新シングルのリリースが楽しみで、どのような反響があるのか注目が集まります。音楽だけでなく、その背後にあるメッセージや社会との関係性も意識して楽しみたいですね。

Oração Ao Tempo をAmazonで探す

Stanley Clarke をAmazonで探す

📸 関連画像一覧


※以下、出典元
▶ 元記事を読む

Views: 0

「激闘続く『TO BE HERO X』第20話情報解禁!」

ざっくり内容:
アニメ『TO BE HERO X』の第20話「廃墟事件」のあらすじが公開されました。本エピソードでは、調査チームが謎の存在ナイスと魂電に襲撃され、混乱を極める展開が描かれます。さらに、試練を共に乗り越えるヒーローたちの激しい戦いが繰り広げられ、新たなキャラクター、ロリが救援に駆けつけることで状況が一層緊迫します。

このシリーズは、さまざまなヒーローたちが集まるストーリーで、視聴者にとって予測できない展開が魅力です。『TO BE HERO X』は、毎週日曜日の朝9時30分からフジテレビで放送されています。このアニメは、アクションとユーモアを融合させた内容で、幅広いファンに支持されています。特に、ヒーローたちの成長や友情がテーマとなり、視聴者に感情的なつながりを提供しています。

編集部の見解:
アニメ『TO BE HERO X』の第20話「廃墟事件」について、印象や社会的な影響について考えてみたいと思います。

まず、ヒーローたちが集結するシーンは、視聴者に強い期待感を与えますね。特に、キャラクター同士の複雑な関係性や、仲間を助け合う姿が描かれることで、観る側の共感を呼び起こします。アニメや漫画における「ヒーローもの」は、自己犠牲や友情、成長をテーマにしていることが多く、視聴者の心に響く要素が豊富です。

例えば、最近の他のヒーローアニメでは、単に敵を倒すだけではなく、「何のために戦うのか」といった根本的な問いを探求する作品が増えています。『TO BE HERO X』もその流れに乗っているように感じます。

社会的な影響として、こういったヒーローたちの物語を見ることで、視聴者は「正義とは何か」という価値観を再考するきっかけを与えられていると思います。多様性や共感が求められる現代社会において、キャラクターたちが直面する困難や葛藤は、視聴者にとってもリアルな感情の反映ではないでしょうか。

また、豆知識ですが、ヒーローものの歴史は非常に古く、アメリカン・コミックスの登場からずっと多くの人に愛され続けています。ヒーローの活動が社会に与える影響を多様に描くことで、次世代の価値観や行動に影響を及ぼすこともあります。

最後に、アニメの中での激しいバトルシーンは視覚的にも楽しめる瞬間ですが、それが単なる爽快感だけでなく、内面的な成長や友情の重要性を感じさせてくれるのが本当に魅力的です。これからの話の展開にも期待大ですね!

  • キーワード:ヒーロー


※以下、出典元
元記事を読む

Views: 0

「年下Jリーガーと電撃結婚!26歳アナの幸せ2ショット」

🔸 ニュース:

26歳のフリーアナウンサーが年下のJリーガーと結婚

26歳のフリーアナウンサー、佐藤由菜さんが、23歳のJリーガー・谷内田哲平(やちだ・てっぺい)さんとの結婚を発表しました。この二人の幸せそうな2ショットが話題を集めています。

佐藤さんはInstagramで「私事ですが、谷内田哲平さんと結婚しました」と報告し、大宮アルディージャのユニフォーム姿での結婚指輪を見せる写真を公開しました。

彼女は「初めての景色をたくさん見せてくれる彼。これまで支えられてばかりだった私が、初めて支えたいと思った人です」と夫を紹介しました。さらに、彼女は「京都サンガF.C.というチームを通じてサッカーを大好きになり、彼の夢を最も近くで応援できることに感謝しています」とも述べています。

佐藤さんは、今後もお互いを尊重し合える関係を築くことを誓い、読者に対して「まだまだ未熟者の2人ですが、温かく見守っていただければ幸いです」と結びました。

このニュースは、若いカップルの愛の形や、夢を追う姿勢がどれほど大切であるかを改めて考えさせてくれます。

🧠 編集部の見解:
この記事を読んで感じたのは、現代の恋愛観や結婚観が非常に多様化していることですね。特に、年齢差のあるカップルが増えている印象があります。年下の方がパートナーになると、お互いに新しい視点を持ち寄れるのがいいですね。このカップルもまさにそうで、佐藤由菜さんが「初めて支えたいと思った人」と語っていますが、彼女自身が成長を感じられる関係性というのはとても素敵です。 ### 関連事例 最近では、年齢差のある有名人カップルがメディアに取り上げられることが多いです。たとえば、俳優の福士蒼汰さんと年上女優のカップルや、モデルのローラさんと年下の音楽プロデューサーなど、徐々に受け入れられてきている印象があります。 ### 社会的影響 こういったカップルが注目されることで、年齢差を気にせず自由に恋愛を楽しむことができると感じる人が増えるかもしれません。結婚やパートナーシップの多様性を認めることができれば、それだけ家族の形も豊かになるのではないでしょうか。 ### 豆知識 ちなみに、恋愛における年齢差の受け入れ度は文化や地域によっても異なります。例えば、西洋の一部の国では年齢差のあるカップルがより一般的で、年の差を気にしない傾向がありますが、日本ではまだ少しの違和感を覚える人もいるかもしれません。でも、時代とともに変わりつつあります!このカップルも、その流れを象徴するような存在ですね。 どんな形であれ、お互いに支え合い、刺激し合える関係は素晴らしいと思います。今後の彼らの活躍にも期待したいですね!

  • キーワード: 結婚


RB大宮アルディージャ をAmazonで探す 京都サンガF.C. をAmazonで探す 結婚指輪 をAmazonで探す

Views: 1

扇風機で涼しさ倍増!節約術!

0

扇風機だけで部屋を涼しくする裏技5選

暑い夏、エアコンを使うのが高額で躊躇する方や、エアコンだけでは物足りないという方に向けて、扇風機の力を利用した涼しさを感じられる裏技を5つご紹介します。

1. 扇風機の後ろに氷を置く

扇風機は後ろから空気を吸い込み前に出します。そのため、後ろの方に氷を置くことで、冷たい空気を送り出すことができます。これにより、エアコンのような涼しさを得られるでしょう。

2. 凍らせたペットボトルを活用

凍らせたペットボトルを扇風機の前に置くと、風が冷たくなり体感温度が約4℃も下がります。4時間以上冷たい状態をキープできるので、2本用意して交互に使うと良いです。

3. アルミホイルで包む

凍らせたペットボトルをアルミホイルで包むことで、解けにくくなります。特に夜寝る時にお勧めのテクニックです。

4. 濡れタオルを使用

濡れたタオルを体にかけると、蒸発熱によって体温が効果的に下がります。特に首や腕など、血流が多い部分に使うと涼しさを感じやすいです。

5. 扇風機を足元に当てる

足元に冷風を当てると、体全体が涼しく感じます。靴下を脱いで、直接足に冷風を当てるのがポイントです。


補足説明

これらの裏技は、扇風機の操作を通じて、資源を無駄にせず、経済的にエコな涼しさを得る方法です。また、空気の循環を良くすることが、部屋全体の温度調整にも寄与します。

背景・豆知識

扇風機は風を送ることで体温を下げる手助けをします。気化熱を利用した方法(濡れタオルなど)は、夏場の暑さを乗り切る古くからの知恵です。

さらに知識を深めたければ

こちらのリンクも参考になります:

これらのテクニックで、快適でエコな夏を乗り切りましょう!

  • キーワード: 扇風機

扇風機 をAmazonで探す
ペットボトル をAmazonで探す
アルミホイル をAmazonで探す



※以下、出典元
▶ 元記事を読む

Views: 0

「1.6億円スピーカー試聴!香港ショウでアートと音が融合」

本日、2025年8月13日付で報じられたニュースによると、香港オーディオショウで注目を集めているのは、マーテンのフラグシップスピーカー「Coltrane Supreme Extreme」です。この高級スピーカーは、現地価格でペア888万香港ドル、日本円に換算すると約1.6億円に相当します。

重要なポイント

  1. スピーカーの特徴: 「Coltrane Supreme Extreme」は、その圧倒的な音質とデザインによって、多くのオーディオファンの関心を引いています。技術的な革新とクラフトマンシップが融合した製品とされています。

  2. 市場の位置づけ: このような高価なオーディオ機器は、特にオーディオ愛好家や富裕層に向けて設計されており、音質だけでなく、所有すること自体がステータスとなることが多いです。

  3. 香港オーディオショウの意義: 現在、世界中のオーディオ製品が集まるこのイベントは、新製品の発表や最新の技術が披露される場として重要です。イベントを通じて、最新トレンドや市場の反応を知ることができます。

今回のオーディオショウでは、特にこのスピーカーが来場者の注目を集め、オーディオ業界におけるマーテンの地位を再確認させる結果となったようです。興味深いのは、価格帯としても庶民には手が届かない一方で、音質を重視する人々には非常に魅力的な選択肢となっていることです。

🧠 編集部より:

マーテン「Coltrane Supreme Extreme」の魅力

今回の香港オーディオショウで、多くの注目を集めたのがマーテンのフラグシップスピーカー「Coltrane Supreme Extreme」です。このスピーカーは、その高性能と独特のデザインから、オーディオマニアだけでなく一般の来場者にも強い印象を与えました。

製品の特徴

  • 音質: 「Coltrane Supreme Extreme」は、特に音楽のダイナミクスと解像度に優れています。音楽の細部まで忠実に再現することで、リスナーを音楽の世界に引き込む力があります。
  • デザイン: 美しい外観も大きな魅力の一つです。高級感漂う仕上げと重量感のある構造が、スピーカーとしてだけでなくインテリアとしても存在感を放っています。

価格について

現地価格はペアで888万香港ドル、日本円に換算すると約1.6億円に達します。この価格は、オーディオ機器としては非常に高額ですが、その性能を考慮すると納得できる部分もあります。希少性やブランド価値も含め、多くのオーディオファンの夢の一品と言えるでしょう。

背景や豆知識

マーテンはスウェーデンの高級オーディオブランドで、スピーカーの設計において革新的な技術を取り入れています。特に、音響工学とデザインの融合を追求しており、その結果、高性能なスピーカーが次々と登場しています。オーディオショウでの展示は、新技術や製品を直接体験できる貴重な機会です。

関連リンク

オーディオの世界は奥深く、さまざまな製品が存在します。ぜひ自分自身の耳で聴いて、体験してみてください!

  • キーワード: コルトレーン

Coltrane Supreme Extreme をAmazonで探す



※以下、出典元
▶ 元記事を読む

Views: 0

Lumina Image 2.0 アーキテクチャとちょっと Neta Lumina


Lumina Image 2.0 (略して Lumina2 や LU2) は、Alpha-VLLM から公開された Unified NextDiT アーキテクチャの画像生成モデルです。

https://arxiv.org/abs/2503.21758

https://github.com/Alpha-VLLM/Lumina-Image-2.0

https://huggingface.co/Alpha-VLLM/Lumina-Image-2.0

この Lumina2 をベースにしたイラスト特化のファインチューンである Neta Lumina が最近公開されたので、Lumina2 のアーキテクチャについて見ていこうと思います。

https://huggingface.co/neta-art/Neta-Lumina

https://www.neta.art/blog/neta_lumina/

Lumina 2.0 アーキテクチャ

Stable Diffusion や Flux のような他の画像生成モデルと同様に、Lumina2 は テキストエンコーダーVAEデノイザー で構成されています。

モジュール タイプ パラメータ数
テキストエンコーダー Gemma2 2B (base) 約 2.6 B
VAE Flux.1 VAE 約 80 M
デノイザー Unified NextDiT (提案アーキテクチャ) 約 2.6 B

テキストエンコーダー

まずテキストエンコーダーについて、複数のテキストエンコーダーを採用する SDXLSD3.5Flux.1 と異なり、使用されているテキストエンコーダーは Gemma2 2B の 1 つだけとなっています。

また、Gemma2 はインストラクション版ではなく事前学習版が使用されていますが、これはおそらく前身の Lumina-T2X で採用されいたものをそのまま引き継いだのだと思います。

一方で、学習時のプロンプトテンプレートは以下のようにインストラクションが入っています。

You are an assistant designed to generate high-quality images based on user prompts. {image_prompt}

詳しい言及がないので推測ですが、おそらく SANA の Complex Human Instruction に影響を受けている気がします。SANA もベース版の Gemma2 を採用しながら、指示応答のようなプレフィックスを付与して学習しています。

Gemma2 が多言語に対応しているのと、学習データに中国語のキャプションも含めていることから、Lumina2 は英語と中国語の両方に対応しています。ファインチューンの Neta Lumina はさらに日本語のキャプションも学習したので、日本語での生成も可能になっています。

Lumina2 も他の多くの画像生成モデルと同様に、テキストエンコーダーの 最後から二番目 の層の出力を埋め込みとして利用しています。実際に公式実装のテキストをエンコードしている部分を見てみると、

https://github.com/Alpha-VLLM/Lumina-Image-2.0/blob/be7067b21e03e0d440876fa00bd1cfe94ffc3c3f/sample.py#L43-L50

とあるように、hidden_states の最後から二番目 ([-2]) を使っていることがわかります。

ライセンスについて

ところで、Gemma2 はもちろん Gemma ライセンス であり、再配布でも Gemma ライセンスが適用されるはずなのですが、Lumina2 が Apache 2.0 で配布されているのは一体…? 関連する事例としては、HiDream は Llama3.1 をテキストエンコーダーを採用していますが、Llama3.1 自体は再配布せずに他の部分を MIT ライセンスとして配布しています。なので、Gemma2 以外 Apache 2.0 ライセンス状態と考えられるか…?

と思いたいのですが、Gemma ライセンスによると、

(e) “Model Derivatives” means all (i) modifications to Gemma, (ii) works based on Gemma, or (iii) any other machine learning model which is created by transfer of patterns of the weights, parameters, operations, or Output of Gemma, to that model in order to cause that model to perform similarly to Gemma, including distillation methods that use intermediate data representations or methods based on the generation of synthetic data Outputs by Gemma for training that model. For clarity, Outputs are not deemed Model Derivatives.

とあり、画像を生成するので「Gemmaと類似の性能を持つように作られたモデル」ではないが、テキストエンコーダーとして使っているので「Gemma をベースとしたモデル」には該当するような気がしなくもなくもない… となると Lumina2 は Gemma ライセンスが適用されるのが妥当になる気もする。

Gemma2 がテキストエンコーダーの SANA は、その部分が Gemma ライセンスであることを明記しているが、全体としては NSCL v2-custom という特殊なライセンスになっている。

なのでかなり微妙なライン… 個人的には Qwen だったらライセンス的に良かったな…

VAE

Flux.1 の VAE をそのまま使っています。

項目
チャンネル数 16
縦横圧縮率 1/8 (面積は 1/64)

Flux.1 は [dev] は非商用ライセンスですが [schnell] が Apache 2.0 ライセンスになっているので、内包されている VAE が緩いライセンスの VAE として使うことができます。

しかし

実際の Lumina-Image 2.0 の vae フォルダーにある config.json を見てみると、

config.json

{
  "_class_name": "AutoencoderKL",
  "_diffusers_version": "0.33.0.dev0",
  "_name_or_path": "black-forest-labs/FLUX.1-dev",
  "act_fn": "silu",
...

と、特殊なライセンスになっている [dev] 版の "black-forest-labs/FLUX.1-dev" から取ってきてるようです。まあ中身は一緒なのでこっちは大きな問題はないんじゃないかと思います。

デノイザー

デノイズする部分です。学習目標は Flow Matching で、アーキテクチャは NextDiT から派生した Unified NextDiT です。 NextDit は Lumina Image 2.0 の前身である Lumina-T2X で提案されたアーキテクチャです。


Lumina-Image 2.0: A Unified and Efficient Image Generative Framework の Figure 2 より

素の DiT と比較した際の差異は主に以下の通りです (ただし、Lumina2 以前に導入されたものも含む):

  • AdaRMSNormZero: LayerNorm をほぼ RMSNorm に置き換えた。shift はなくなり、 scalegate のみを使う。特に呼び名がないのでここでは AdaRMSNormZero と呼ぶことにする。(公式実装では adaLN の表記が出てくるが、実際に LayerNorm を使っているのは最後の 1 層のみ。diffusers の実装 ではほとんどの adaLN では LuminaRMSNormZero が使われている)。Lumina-T2X で導入。
  • tanh gate: AdaRMSNormZero で使う gatetanh に通すようにした (これによって gate が -1~1 の値になって爆発しない)。Lumina-T2X で導入。
  • Sandwich Nroamlization: Attention と MLP の前後に RMSNorm を配置。これによりアクティベーションの値が安定する。CogView で提案、Lumina-T2X で導入。
  • Multimodal RoPE: 位置エンコーディングは Qwen2-VL と少し似た感じです。Lumina2 で導入。
  • Refiner: プロンプトと latents に対して個別に Refiner を通ります。中身はそれぞれ 2 層の Transformer ブロックで、プロンプト側には AdaRMSNormZero は使われていません。

他にもいろいろあるので個人的に気になったものを見ていきます

AdaRMSNormZero, tanh gate, Sandwich Normalization

以下のように使われています:

https://github.com/Alpha-VLLM/Lumina-Image-2.0/blob/be7067b21e03e0d440876fa00bd1cfe94ffc3c3f/models/model.py#L411-L418

https://github.com/Alpha-VLLM/Lumina-Image-2.0/blob/be7067b21e03e0d440876fa00bd1cfe94ffc3c3f/models/model.py#L24-L25

https://github.com/Alpha-VLLM/Lumina-Image-2.0/blob/be7067b21e03e0d440876fa00bd1cfe94ffc3c3f/models/model.py#L443-L456

ここで、dim2304 なので常に 1024 が使われます。この 1024adaLN の入力となるタイムステップ埋め込みの次元です。

adaLN_modulation を通ると Multi-Head Attention (mha) と MLP (mlp) 用の scaleshift、計 4 つの値が得られます。(このため、出力次元は 4 * dim)

したがって、adaLN_modulation1024 次元の入力を受け取り、4 * 2304 = 9216 次元の出力を返すことになります。

AdaRMSNormZero は 一般的な AdaLayerNorm(-Zero) のように、scale は Attention や MLP の前にかけられますが、shift はありません。残差接続で足されるときに gate が掛けられます。このとき、gatescaleゼロで初期化され、学習初期は恒等関数になります。なので名前に Zero が付いています。

また、gate_msagate_mlptanh() されているのがわかります。これによって、gate の値が爆発せず -1 から 1 の範囲に収まるので、残差と同じようなスケールで足し合わせることになります。Sandwich Normalization と tanh gate によって各層でのアクティベーションの大きさが安定して学習が安定するらしいです。

これらは Lumina-T2X の NextDiT で導入されました。

NextDiT の norm_final 層について

公式実装には NextDiT に norm_final という名前の RMSNorm がついています。

https://github.com/Alpha-VLLM/Lumina-Image-2.0/blob/be7067b21e03e0d440876fa00bd1cfe94ffc3c3f/models/model.py#L631

しかし、この層は一度も使われていません。一方で公式のモデルウェイトや Neta Lumina のウェイトにも含まれているので、そのまま load_state_dict で読みたい場合はそのままにしておくといいと思います。

もしかしたら分散学習などで使われてない層があるとエラーになるかもしれませんが、その時は多分この層のせいなのでよしなにしてください。

SwiGLU

FeedForward では SwiGLU が使われていると思います。公式実装では以下のようになっています。

https://github.com/Alpha-VLLM/Lumina-Image-2.0/blob/be7067b21e03e0d440876fa00bd1cfe94ffc3c3f/models/model.py#L311-L361

レイヤー名がややこしいですがやってる処理としては、


x_{\text{SwiGLU}} = \text{Swish}(x_{in} W_1) * x_{in} W_3
\\
x_{out} = x_{\text{SwiGLU}} W_2

になってて、SwiGLU の定義


\text{SwiGLU}(x, W, V, b, c) = \text{Swish}(x W + b) * (x V + c)

らしいので、バイアスのない SwiGLU だと思います。

これは Lumina-T2I で導入されたようです。

Multimodal RoPE

Lumina2 で導入されました。Qwen2-VL の M-RoPE だと論文中で言ってるんですが、完全に同じことをやってるわけではないです。


Qwen2-VL の M-RoPE についての図

M-RoPE では、(フレームとテキスト, 縦, 横) 3次元の位置インデックスを使います (左上原点)。Qwen2-VL では動画も扱うので、その際の1フレームをテキストの1トークン分の位置と同等に扱っているみたいです。

テキストトークンのインデックスには縦横が存在しないんですが、1次元目と同じ値を使っているので対角線に並べてくイメージに近いと思います(図の右側のイメージ)。しかし、Lumina2 ではこの部分の仕様は採用しておらず、テキストでは1次元目のみを使って2次元目と3次元目はゼロのままにしています。Flux に少し近いです。


Lumina2 の RoPE 位置インデックスのイメージ図

Flux と異なり、画像パッチの 1 次元目はプロンプトの最後の位置インデックス+1を使います。つまり、プロンプトの長さと同じ値であり、また、プロンプトにおける次の単語の位置にあたります。Flux では画像パッチの位置インデックスの一次元目は全てゼロでした。参考:

https://note.com/gcem156/n/nb4d97c60d50e

コンテキストのパディング

今までは CLIP や T5 が多かったので、77 トークンや 256, 512 トークンで決まっているものが多かったですが、Lumina2 ではテキストエンコーダーが Gemma2 になり可変長のプロンプトを扱えるようになったので、プロンプトの長さが固定ではなくなりました。

それによって、学習時や推論時にキャプションの長さが異なるとテンソルのサイズが異なり、バッチ処理をする際に困ることになります。そのため、実際にはパディングを行なってサイズを揃えて、Attention する際にはパディングした部分を無視するようにマスクを設定することで対応することになります。

それでも RoPE の位置インデックスはデータごとに異なってしまうのでループ処理で個別に割り当てることになります。位置インデックスの1次元目だけ取り出すとこんな感じになります。


パディングする際の位置インデックスのイメージ

データごとに位置インデックスを計算してパディング付きでスタックしたり、先に一番長くなるシーケンス長を計算して、そのあとでインデックスIDをスライスで入れるなどの方法で解決します。

プロンプトの長さを変えられるなら、画像のサイズも変えられるのでは?と思うかもしれません。実際、可能ですが、VAE のエンコード・デコードやパッチング処理など、画像の2次元的な操作で for ループが発生することになり、特に学習時にはあまり現実的ではないです。異なるサイズのテンソルを扱える NestedTensor もありますが、現状対応している処理が少ないので、結局 for ループが結構発生します。CFG などのシンプルな処理では若干利用できます

実際に実装してみた ものもありますが、動作はするものの for ループやパディング処理がいっぱい挟まってややこしいことになっています。

https://x.com/p1atdev_art/status/1952242467358859501

なので、学習時はまだ Aspect Ratio Bucketing と仲良くしないといけないようですね。

Refiner

Refiner と聞くと SDXL の Refiner モデルような個別のモデルを連想しますが、ここではそういうのではなく、単にレイヤーです。

本体の Single-Stream Block を通る前に、プロンプトと画像 latent はそれぞれ個別の Refiner を通ります。refiner は Single-Stream Block で使われる Transformer ブロックと同じブロックを 2 層で構成されています。

ただし、プロンプト側の Refiner は AdaRMSNormZero を使わない Transformer で、latent 側の Refiner は AdaRMSNormZero を使う Transformer になっています。AdaRMSNormZero 使う、というのはつまりタイムステップ入力を使うという意味であり、これを使わないプロンプト Refiner はタイムステップに依存しないということでもあります。

そのため、推論時には refine されたプロンプト特徴ははキャッシュすることで、2ステップ目以降で計算を若干省略することができます。

Single-Stream Block


Lumina2 の DiT についての図

Refiner を通った後はシンプルで、シーケンスでがっちゃんこして Single Stream な DiT を通ります。Flux の Double-Stream Block がない版みたいな感じです。

CFG Renormalization

推論時、画像を生成する際には CFG (Classifier-Free Guidance) するのが一般的ですが、この際に画像の色が飽和したり、バキバキになることがよくあります。

そこで、CFG する際に、CFG しない場合とノルムのスケールを合わせるように正規化する処理を追加することでこれを抑えることができます。要は値がデカすぎないように補正する感じです。イメージとしては大体こんな処理です:

CFG Renorm のイメージ

positive: ポジティブプロンプトでの予測
negative: ネガティブプロンプトでの予測
cfg_scale: CFG スケール


new_velocity = negative + cfg_scale * (positive - negative)


positive_norm = torch.norm(positive, dim=-1, keepdim=True)

new_norm = torch.norm(new_velocity, dim=-1, keepdim=True)


new_velocity = new_velocity * (positive_norm / new_norm)

STIV: Scalable Text and Image Conditioned Video Generation で提案されたそうです。これは Lumina2 以外の SDXL 等でも応用できるかもしれません。試してないのでわかりません。

ちなみに、ComfyUI で使う場合は model を RenormCFG ノードに通すことで使用できます。Neta Lumina の公式ワークフローには含まれていなかったのですが、入れると色の飽和を抑えられるので試してみてください。

タイムステップのサンプリング

  • 学習時: Flux と同じ。ただし解像度は 1024×1024 面積固定として扱う
  • 推論時: shift 6.0

Lumina2 では学習時のタイムステップのサンプリングに、Flux と同じ処理を行なっています。一方で、推論時は shift のみを行なっています。

https://github.com/Alpha-VLLM/Lumina-Image-2.0/issues/42#issuecomment-2815088067

この issue コメントによると、

  • 学習はタイムステップのサンプリングで対照実験する資源がないので、Flux と同じ設定で行った
  • 推論時のサンプリングを学習時に合わせないといけない理論的な理由がない
  • 手動で試したところ、shift 6.0 がいい感じだった

らしいです。

Neta Lumina

Neta Lumina は Neta Art から公開された Lumina2 ベースのイラスト生成モデルです。従来の danbooru タグに加えて、自然言語の英語、中国語、日本語での生成に対応しているのがウリです。

https://huggingface.co/neta-art/Neta-Lumina

https://www.neta.art/blog/neta_lumina_prompt_book/

学習についての詳細は公式のレポートを参照してください。

https://www.neta.art/blog/neta_lumina/

量子化してみた

以前 CogView4 を量子化してみたのと雰囲気で Neta Lumina も量子化してみました。

https://zenn.dev/platina/articles/30f9e02f316a64

今回は bitsandbytes の NF4 で特に問題が発生しなかったので他は試してません。

https://huggingface.co/p1atdev/Neta-Lumina-bnb-nf4

モデルサイズは約 10 GB から約 3.7 GB くらいになりました。

bf16 テキストエンコーダー&デノイザー NF4

あんまり劣化せずに量子化できたので少し意外でした。IllustriousXL 2.0 は量子化するとガビガビになるので、Neta Lumina はまだ学習の余地があるのか、モデル構造的に量子化耐性があるのか、IllustriousXL 2.0 が不安定すぎたのかもしれません。

NF4 量子化すると、1024×1024 解像度の画像を約 10 GB 前後の VRAM で生成できました(オフロードあり)。モデルパラメータの割に VRAM を食うのは、多分 Self Attention でシーケンス長が長くなるからかなと思います。これは全てを Self Attention する DiT 系の宿命ですね。

まとめ、感想

必要なテキストエンコーダーやモジュールの種類が減ってシンプルになったものの、マスクやパディングの扱いが依然としてややこしいです。一度コード書いてしまえば特に苦しくはないですが…

個人的な感想としては、Neta Lumina の LoRA 学習が全くうまくいかなかったので誰か成功させて欲しいです。あと、Gemma みたいな LLM をテキストエンコーダーを使うの、ちょっと挙動が信頼できないからやめた方がいい気がしています。しかもインストラクションモデルじゃなくて事前学習版なので、本当にプロンプトのインストラクションプレフィックスが効いているのかよくわからないし、挙動が信頼できない気がします。最近だと T5Gemma とか、SigLIP2 だったり(CLIPと違ってトークン数の制限がない)、せめて画像に連携しやすい VLM モデルがテキストエンコーダーの方が、下流での調整や応用が効きやすいんじゃないかと思いました。最近の Qwen-Image はまさにテキストエンコーダーが Qwen2.5 VL なので、良い選択だと思いました。

家庭の GPU でファインチューンできるレベルのサイズで、使いやすくて安定してるイラスト生成モデルが欲しいです。



Source link

Views: 0

老後の住まい選び、条件次第で「老後うつ」が1.6倍に!

📌 ニュース:
老後を楽しく過ごすには、公共交通機関の利用が重要です。千葉大学の研究によれば、公共交通が近くにない高齢者は、うつ病を発症するリスクが3年後に1.6倍になることが明らかになりました。

この調査では、4,947人を対象に、駅やバス停のアクセスと心の健康との関連を調べました。特に車を運転しない高齢者において、公共交通機関へのアクセスが心の健康に大きく影響するという結果が出ています。

そのため、老後の住まいを選ぶ際には、公共交通の利便性を考慮することが重要です。この研究を基に、今後の交通政策にも影響が期待されます。

  • こちらの記事のポイントを3つにまとめました。ぜひご覧ください!😊

    ### 1. 老後うつのリスク 📊
    車を利用しない高齢者が「駅やバス停が近くにない」と感じている場合、うつを発症するリスクが1.6倍高くなることが明らかになっています。このことから、公共交通のアクセスの重要性が浮き彫りになりました。

    ### 2. 交通機関の減少 🚍
    日本の地方部では公共交通機関が減少しており、そのため自宅近くに交通手段がない高齢者が増えています。これにより、社会参加や心の健康が脅かされる可能性があります。

    ### 3. 交通政策の見直し 🚉
    今後の交通政策では、公共交通機関の廃止が高齢者のメンタルヘルスに与える影響についても考慮する必要があります。老後の住まい選びでは、公共交通機関の利便性を重要視することが大切です。

    これらの情報を踏まえて、老後の生活環境を見直す参考にしていただければ幸いです!


※以下、出典元
▶ 元記事を読む

Views: 0

「万博直結メトロ運転見合わせ!」

2025年に開催される大阪・関西万博に関連して、最近、大阪メトロ中央線で電気系統のトラブルが発生しました。この事故は13日午後9時半頃、万博会場に直結する中央線の一部区間で起き、多くの乗客が乗り込んだ状態で足止めを余儀なくされました。

トラブル発生後、運転が見合わせられ、多くの人々が夢島駅や万博会場のゲート付近で立ち往生しました。中央線は午後10時頃から夢島駅と隣のコスモスクエア駅間で折り返し運転を再開したものの、問題は完全には解消されていない様子でした。

その後も、翌日の始発から一部区間で運転見合わせが続きましたが、午前5時25分頃には全線で運転を再開しました。このようなトラブルは、万博を訪れる多くの観光客に影響を与え、交通機関の安定性が求められる中、さらなる課題となっています。

万博の開催を控え、交通の便やインフラの整備が今後の大きな焦点になることが予想されます。この事件は、イベントの成功にむけての重要な教訓とも言えるでしょう。

🧠 編集部より:

大阪メトロ中央線の運転見合わせについて

2025年に開催予定の大阪・関西万博に関連する交通機関で、先日、大阪メトロ中央線において電気系統のトラブルが発生し、運転見合わせが行われました。この影響で、多くの利用者が万博会場近くの夢島駅や会場のゲート付近で立ち往生する事態となりました。

事件の概要

  • 発生日時: 2023年8月13日午後9時30分頃
  • トラブル内容: 電気系統の故障
  • 初期対応: 一時運転を見合わせ、午後10時頃からは夢島駅とコスモスクエア駅間で折り返し運転を再開。
  • 運転再開: トラブルが解消されず、翌日の始発から一部運行を見合わせていたが、午前5時25分頃に全線で運転を再開。

背景

大阪・関西万博は、2025年に開催される予定で、多くの観光客が訪れることが見込まれています。万博へのアクセスを担う中央線のトラブルは、多くの人々に影響を及ぼしました。

豆知識

  • 中央線: 大阪メトロの中で比較的新しい路線であり、万博開催に向けた交通インフラ強化が進められています。
  • 万博の歴史: 日本では1967年に開催された万博以来、さまざまなテーマでの国際博覧会が行われており、次回の万博は「いのち輝く未来社会のデザイン」がテーマとなっています。

参考リンク

今後のトラブル防止のため、関連機関のさらなる対策が望まれます。

  • キーワード: 運転見合わせ

大阪メトロ中央線 をAmazonで探す
電気系統のトラブル をAmazonで探す
万博会場 をAmazonで探す



※以下、出典元
▶ 元記事を読む

Views: 0

日向坂46松田好花、9年目の決意!「やんすの金村」との絆も話題!

2025年8月15日、アイドルグループ日向坂46の松田好花さんが、14日深夜のニッポン放送『日向坂46・松田好花のオールナイトニッポンX』に出演しました。番組では、彼女がWセンターを務める金村美玖さんと小坂菜緒さんとの新シングル「お願いバッハ!」について語りました。シングルは9月17日に発売される予定です。

松田さんは、グループが8周年を迎えたことについて「早いもので、気づけば26歳の夏になっていた」とし、感慨深い様子で過去を振り返りました。彼女は、仲間たちと共に歩んできた道のりを感じながら、今後もファンに支えてもらいたいと伝えました。

また、新シングルのトークでは「バッハに何をお願いするのか」とユーモラスな質問を投げかけ、「MVの撮影も終わった」と語り、今後の展開に期待を寄せました。さらに、金村さんと小坂さんがセンターを務めることも説明し、卒業シングルとしての特別な意味を持つ楽曲であることを強調しました。

松田さんのこの発言は、同番組での以前のトークを踏まえたもので、「やんす」という言葉が使われたのも、その流れからです。松田さんの自宅でのイベントに金村さんが唯一参加したことが背景にあるとのことです。

リスナーは、放送後1週間以内であれば「radiko」を通じて番組を聞くことができます。日向坂46の活動は、ファンにとっても楽しみなトピックであり、彼女たちの今後の活躍に注目が集まっています。

日向坂46・松田好花
写真:日向坂46・松田好花(撮影/谷脇貢史)

🧠 編集部より:
アイドルグループ日向坂46の松田好花さんが、オールナイトニッポンXに出演し、15thシングル「お願いバッハ!」について語りました。このシングルは9月17日にリリースされ、金村美玖さんと小坂菜緒さんがWセンターを務めます。松田さんは、グループの8周年を迎え、9年目に突入した感慨を語りつつ、シングルの重要性にも触れています。 ### 背景・豆知識 日向坂46は、グループの活動を通じて多くの成長や変化を経験してきました。彼女たちの音楽やパフォーマンスは、ファンとの絆を深める一助となっています。特に、センターを務めるメンバーの選定はファンの間で常に注目されています。このシングルでは、後輩メンバーが重要な役割を果たすことで、世代交代も感じられる作品となっています。 また、松田さんの「やんす」という言葉遣いには、メンバー同士の親しみや温かい関係性を示すユーモアがあり、このカジュアルさが彼女たちの魅力の一部でもあります。ラジオ番組も、彼女たちの素の姿を知る貴重な機会となっており、多くのファンに支持されています。


  • キーワード: 松田好花

    このキーワードは、アイドルグループ日向坂46のメンバーであり、記事の主体である松田好花に関連しています。

15thシングル「お願いバッハ!」 をAmazonで探す 日向坂46 をAmazonで探す radiko をAmazonで探す

※以下、出典元 ▶ 元記事を読む

Views: 0