【Android15 タブレット 12インチ 2K IPS大画面】ODEA A12 2025、2000*1200解像度、8000mAh+USB-C、12GB+128GB+1TB TF拡張、A75 CPU T606 Antutu 240,000点+、アンドロイド15タブレット、2K IPS画面/GMS/5G WiFi/BT 5.0/Widevine L1 Netflix対応/GPS (12GB)
¥24,901 (2025年5月5日 13:08 GMT +09:00 時点 - 詳細はこちら価格および発送可能時期は表示された日付/時刻の時点のものであり、変更される場合があります。本商品の購入においては、購入の時点で当該の Amazon サイトに表示されている価格および発送可能時期の情報が適用されます。)
![[備忘録] Qwen3の](https://qiita-user-contents.imgix.net/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-afbab5eb44e0b055cce1258705637a91.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLXByb2ZpbGUtaW1hZ2VzLmltZ2l4Lm5ldC9odHRwcyUzQSUyRiUyRnMzLWFwLW5vcnRoZWFzdC0xLmFtYXpvbmF3cy5jb20lMkZxaWl0YS1pbWFnZS1zdG9yZSUyRjAlMkYyNjQ4MDY5JTJGMGU0YTU4OTYzNzI5ZTIyYjkwODM5NDY4YjkzYWNkMGNmNWM4YWFhOCUyRmxhcmdlLnBuZyUzRjE2NTE1ODc2MzQ_aXhsaWI9cmItNC4wLjAmYXI9MSUzQTEmZml0PWNyb3AmbWFzaz1lbGxpcHNlJmZtPXBuZzMyJnM9ZmQxZmIxNGYyM2JiYTE1NTZmMzQ4YmYxZGE3YzFmMjc%26blend-x%3D120%26blend-y%3D467%26blend-w%3D82%26blend-h%3D82%26blend-mode%3Dnormal%26s%3D4e21d6c99ffd21130be46a8d859f162c?ixlib=rb-4.0.0&w=1200&fm=jpg&mark64=aHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk2MCZoPTMyNCZ0eHQ9JTVCJUU1JTgyJTk5JUU1JUJGJTk4JUU5JThDJUIyJTVEJTIwUXdlbjMlRTMlODElQUUlMjIlRTglODAlODMlRTMlODElODglRTMlODIlOEIlRTYlQTclOTglRTUlQUQlOTAlMjIlRTMlODIlOTIlRTglQTYlOEIlRTMlODElQTYlRTMlODElQkYlRTMlODIlODglRTMlODElODYlMjAtJTIwR29vZ2xlJTIwQ29sYWIlRTMlODElQTclRTUlQUUlOUYlRTglQTMlODUmdHh0LWFsaWduPWxlZnQlMkN0b3AmdHh0LWNvbG9yPSUyMzFFMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZ0eHQtcGFkPTAmcz03NzRkYTI3ZTg2MDUxZmNjN2M5NGFjMTU1Y2U4NGM2Zg&mark-x=120&mark-y=112&blend64=aHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTgzOCZoPTU4JnR4dD0lNDBUYWRhdGFrYV9UYWthaGFzaGkmdHh0LWNvbG9yPSUyMzFFMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtcGFkPTAmcz01YWM4MmFhMTM4Y2ZkZDI1MzAyNzNkMmI1YzJiNDBhMQ&blend-x=242&blend-y=480&blend-w=838&blend-h=46&blend-fit=crop&blend-crop=left%2Cbottom&blend-mode=normal&s=866264302ca8ea56d605edc165777df1)
はじめに
「Qwen3:4b」を使い、「考えている途中」と「最終的な回答」を分けて表示する実装を試みました。Jupyter notebook環境で動くインタラクティブなUIを作り、思考の履歴を表示する試みの備忘録です。
この記事で分かること:
- Ollamaを使ってGoogle Colabで軽量LLMを動かす方法
- モデルの思考プロセスを可視化する実装テクニック
- ipywidgetsを使ったインタラクティブなチャットインターフェースの作り方
注意事項:
- 著者はCPU環境で試しました。回答が返ってくるまで時間がかかります。筆者の目的としては、Qwen3、思考プロセスを手持ちの環境で体験することと、仕組みを理解するのにやってみました。
- 同じ条件で動作させると返事かえってくるのに多少時間かかります。試すとしたら気長にやっていただくか、パワーアップした環境でやってみてください。
環境準備
今回は以下の技術スタックを使用します:
- Google Colab: クラウド上のJupyter環境
- Ollama: 軽量LLMランタイム
- Qwen3:4b: 比較的小さいながらも高性能な言語モデル
- ipywidgets: インタラクティブなUI構築用
実装手順
1. 必要なパッケージのインストール
まず、必要なパッケージをインストールします。
!pip install ollama -q
!pip install ipywidgets -q
!pip install nest_asyncio -q
2. Ollamaのインストールと起動
Google Colabの環境にOllamaをインストールし、バックグラウンドで起動します。
# Ollamaのインストール (初回のみ実行)
!curl -fsSL https://ollama.com/install.sh | sh
# バックグラウンドでOllamaサーバーを起動
!nohup ollama serve > /dev/null 2>&1 &
3. モデルのダウンロード
今回はQwen3の4bモデルを使用します。小さいモデルなのでColab環境でも比較的スムーズに動作します。
# Qwen3:4bモデルをダウンロード
!ollama pull qwen3:4b
4. 必要なライブラリのインポート
import re
import time
import nest_asyncio
from IPython.display import display, clear_output, HTML
import ipywidgets as widgets
from ollama import chat
# Jupyterでasyncを動作させるための設定
nest_asyncio.apply()
5. システムプロンプトの設定
思考プロセスを
タグで囲むようにモデルに指示するシステムプロンプトを設定します。回答は日本語で返すよう指定しています。
# 会話履歴の初期化(思考プロセスタグの使用法を指定)
conversation_history = [
{"role": "system", "content": """
あなたは役立つアシスタントです。思考プロセスを示すために タグを使ってください。
回答は必ず日本語で行ってください。思考プロセスはあなたの自然な形で構いません。
例:
ユーザー: 15 + 27は?
I need to calculate 15 + 27.
First, I 'll add the units: 5 + 7 = 12
I'll write down 2 and carry the 1.
Then, I'll add the tens: 1 + 1 + 2 = 4
So the answer is 42.
15 + 27は42です。
"""}
]
6. UIコンポーネントの作成
ipywidgetsを使って、見やすいUIを作成します。ここではユーザー入力欄、送信ボタン、履歴クリアボタン、チャット表示エリア、思考プロセス表示エリアなどを定義します。
# UIコンポーネントの作成
title = widgets.HTML(value="'color: #2c3e50;'>思考プロセス表示型チャット
")
instructions = widgets.HTML(value="""
"background-color: #e1f5fe; padding: 10px; margin: 10px 0; border-radius: 5px; border-left: 5px solid #0288d1; color: #01579b;">
使い方:
- 下のテキストエリアにメッセージを入力して「送信」をクリックしてください
- アシスタントのリアルタイムの思考プロセスが表示されます
- 回答は日本語で返信されます
""")
text_input = widgets.Textarea(
placeholder='ここにメッセージを入力...',
layout=widgets.Layout(width='100%', height='80px')
)
send_button = widgets.Button(
description="送信",
button_style='primary',
icon='paper-plane'
)
clear_button = widgets.Button(
description="履歴クリア",
button_style='danger',
icon='trash'
)
# 省略: その他のUIコンポーネント
7. 思考プロセスとチャット履歴の処理関数
思考プロセスを抽出・表示する関数や、チャット履歴を管理する関数を実装します。
# 思考内容を抽出してフォーマットする関数
def format_thinking_content(text):
pattern = r'(.*?) '
matches = re.findall(pattern, text, re.DOTALL)
if matches:
return matches[0].strip()
return ""
# 思考タグを最終回答から削除する関数
def remove_thinking_tags(text):
return re.sub(r'.*? ', '', text, flags=re.DOTALL).strip()
# 会話履歴をクリアする関数
def clear_history(b):
global conversation_history, thinking_history
conversation_history = [
{"role": "system", "content": "...初期プロンプト..." }
]
thinking_history = []
with output_area:
clear_output(wait=True)
display(HTML("'padding: 10px; color: #004d40; background-color: #e0f2f1; border-radius: 5px;'>チャット履歴をクリアしました
"))
8. メッセージ送信とレスポンス処理の実装
ユーザーのメッセージを送信し、Ollamaからのレスポンスをストリーミング形式で受け取り、思考プロセスと回答を分離して表示する機能を実装します。
# メッセージ送信を処理する関数
def on_send_button_clicked(b):
user_input = text_input.value.strip()
if not user_input:
return
# ユーザーメッセージを会話に追加して表示
conversation_history.append({"role": "user", "content": user_input})
# 処理中の表示と入力の無効化
text_input.disabled = True
send_button.disabled = True
text_input.value = ""
with output_area:
display(HTML(f"'margin: 10px; padding: 10px; background-color: #e3f2fd; border-radius: 5px; border-left: 4px solid #2196F3; color: #0d47a1;'>あなた: {user_input}
"))
# モデルからの応答を取得
thinking_content = ""
response_content = ""
in_thinking = False
# 思考中インジケータを表示
with thinking_area:
clear_output(wait=True)
thinking_html = HTML("'margin: 10px; padding: 10px; background-color: #f1f8e9; border-radius: 5px; border-left: 4px solid #8bc34a; color: #33691e;'>アシスタント考え中...
")
display(thinking_html)
try:
# レスポンスをストリーミング
for chunk in chat(model="qwen3:4b", messages=conversation_history, stream=True):
content = chunk["message"]["content"] if "message" in chunk and "content" in chunk["message"] else ""
# 思考プロセスの開始タグを検出
if " " in content and not in_thinking:
in_thinking = True
thinking_content = ""
# 思考プロセス内の内容を処理
if in_thinking:
thinking_content += content
with thinking_area:
clear_output(wait=True)
formatted_thinking = thinking_content.replace(" ", "").replace("", "")
display(HTML(f"'margin: 10px; padding: 10px; background-color: #f1f8e9; border-radius: 5px; border-left: 4px solid #8bc34a; color: #33691e;'>思考プロセス:'white-space: pre-wrap; background-color: #fafafa; padding: 8px; border-radius: 4px; color: #37474f;'>{formatted_thinking}
"))
# 思考プロセスの終了タグを検出
if "" in content:
in_thinking = False
# 思考履歴に追加
if formatted_thinking:
thinking_history.append({
"question": user_input,
"thinking": formatted_thinking
})
# 思考履歴表示を更新(省略)
# 思考プロセス以外の内容(最終回答)を処理
else:
response_content += content
# レスポンス表示を更新
with output_area:
# 省略: 履歴表示のコード
# 現在のレスポンスを表示
display(HTML(f"
'margin: 10px; padding: 10px; background-color: #e8f5e9; border-radius: 5px; border-left: 4px solid #4caf50; color: #1b5e20;'>アシスタント: {response_content}
"))
# アシスタントのレスポンスを会話履歴に追加
full_response = thinking_content + response_content
conversation_history.append({"role": "assistant", "content": full_response})
except Exception as e:
# エラー処理
with output_area:
display(HTML(f"
'margin: 10px; padding: 10px; background-color: #ffebee; border-radius: 5px; border-left: 4px solid #f44336; color: #b71c1c;'>エラー: {str(e)}
"))
finally:
# 入力を再有効化
text_input.disabled = False
send_button.disabled = False
# 思考エリアをクリア
with thinking_area:
clear_output()
9. イベントリスナーの設定とインターフェースの表示
各種ボタンとイベントを連携し、最終的なUIを表示します。
# イベントリスナーを設定
send_button.on_click(on_send_button_clicked)
clear_button.on_click(clear_history)
# その他のイベントリスナー設定(省略)
# 最終的なチャットUIを構築
chat_ui = widgets.VBox([
title,
instructions,
widgets.HBox([chat_label]),
output_area,
widgets.HBox([thinking_label]),
thinking_area,
# 省略: その他のUI要素
], layout=widgets.Layout(width='100%', padding='10px'))
# チャットインターフェースを表示
display(chat_ui)
実装例
Google Colabのセルにこれをコピー&ペーストしてみました。
# 思考プロセス表示型チャット(Google Colab用)
# 必要なパッケージのインストール
!pip install ollama -q
!pip install ipywidgets -q
!pip install nest_asyncio -q
# Ollamaのインストール (初回のみ実行)
!curl -fsSL https://ollama.com/install.sh | sh
# バックグラウンドでOllamaサーバーを起動し、モデルをダウンロード
!nohup ollama serve > /dev/null 2>&1 &
!ollama pull qwen3:4b
# 必要なライブラリをインポート
import re
import time
import nest_asyncio
from IPython.display import display, clear_output, HTML
import ipywidgets as widgets
from ollama import chat
# Jupyterでasyncを動作させるための設定
nest_asyncio.apply()
# 会話履歴の初期化(思考プロセスタグの使用法を指定)
conversation_history = [
{"role": "system", "content": """
あなたは役立つアシスタントです。思考プロセスを示すために タグを使ってください。
回答は必ず日本語で行ってください。思考プロセスはあなたの自然な形で構いません。
例:
ユーザー: 15 + 27は?
I need to calculate 15 + 27.
First, I 'll add the units: 5 + 7 = 12
I'll write down 2 and carry the 1.
Then, I'll add the tens: 1 + 1 + 2 = 4
So the answer is 42.
15 + 27は42です。
"""}
]
# 思考プロセスの履歴保存のための変数
thinking_history = []
# UIコンポーネントの作成 - 色合いを見やすく調整
title = widgets.HTML(value="'color: #2c3e50;'>思考プロセス表示型チャット
")
instructions = widgets.HTML(value="""
"background-color: #e1f5fe; padding: 10px; margin: 10px 0; border-radius: 5px; border-left: 5px solid #0288d1; color: #01579b;">
使い方:
- 下のテキストエリアにメッセージを入力して「送信」をクリックしてください
- アシスタントのリアルタイムの思考プロセスが表示されます
- 回答は日本語で返信されます
- 思考プロセス履歴の表示/非表示を切り替えることができます
""")
text_input = widgets.Textarea(
placeholder='ここにメッセージを入力...',
layout=widgets.Layout(width='100%', height='80px')
)
send_button = widgets.Button(
description="送信",
button_style='primary',
icon='paper-plane'
)
clear_button = widgets.Button(
description="履歴クリア",
button_style='danger',
icon='trash'
)
show_thinking_history = widgets.Checkbox(
value=True,
description='思考プロセス履歴を表示',
indent=False
)
output_area = widgets.Output(layout=widgets.Layout(height='400px', max_height='600px', overflow='auto'))
thinking_area = widgets.Output(layout=widgets.Layout(height='200px', max_height='300px', overflow='auto', border='1px solid #bdbdbd'))
thinking_history_area = widgets.Output(layout=widgets.Layout(height='200px', max_height='600px', overflow='auto', border='1px solid #bdbdbd'))
# ラベルの作成
thinking_label = widgets.HTML(value="'color: #2c3e50; margin-bottom: 5px;'>思考プロセス (リアルタイム):
")
chat_label = widgets.HTML(value="'color: #2c3e50; margin-bottom: 5px;'>チャット履歴:
")
thinking_history_label = widgets.HTML(value="'color: #2c3e50; margin-bottom: 5px;'>思考プロセス履歴:
")
# 思考内容を抽出してフォーマットする関数
def format_thinking_content(text):
pattern = r'(.*?) '
matches = re.findall(pattern, text, re.DOTALL)
if matches:
return matches[0].strip()
return ""
# 思考タグを最終回答から削除する関数
def remove_thinking_tags(text):
return re.sub(r'.*? ', '', text, flags=re.DOTALL).strip()
# 会話履歴をクリアする関数
def clear_history(b):
global conversation_history, thinking_history
conversation_history = [
{"role": "system", "content": """
あなたは役立つアシスタントです。思考プロセスを示すために タグを使ってください。
回答は必ず日本語で行ってください。思考プロセスはあなたの自然な形で構いません。
例:
ユーザー: 15 + 27は?
I need to calculate 15 + 27.
First, I 'll add the units: 5 + 7 = 12
I'll write down 2 and carry the 1.
Then, I'll add the tens: 1 + 1 + 2 = 4
So the answer is 42.
15 + 27は42です。
"""}
]
thinking_history = []
with output_area:
clear_output(wait=True)
display(HTML("'padding: 10px; color: #004d40; background-color: #e0f2f1; border-radius: 5px;'>チャット履歴をクリアしました
"))
with thinking_history_area:
clear_output(wait=True)
display(HTML("'padding: 10px; color: #004d40; background-color: #e0f2f1; border-radius: 5px;'>思考履歴をクリアしました
"))
# 思考履歴の表示/非表示を切り替える関数
def toggle_thinking_history(change):
if change['new']:
thinking_history_box.layout.display = 'flex'
else:
thinking_history_box.layout.display = 'none'
# メッセージ送信を処理する関数
def on_send_button_clicked(b):
user_input = text_input.value.strip()
if not user_input:
return
# 処理中は入力を無効化
text_input.disabled = True
send_button.disabled = True
# 入力フィールドをクリア
text_input.value = ""
# ユーザーメッセージを会話に追加して表示
conversation_history.append({"role": "user", "content": user_input})
with output_area:
display(HTML(f"'margin: 10px; padding: 10px; background-color: #e3f2fd; border-radius: 5px; border-left: 4px solid #2196F3; color: #0d47a1;'>あなた: {user_input}
"))
# モデルからの応答を取得
thinking_content = ""
response_content = ""
in_thinking = False
# 思考中インジケータを開始
with thinking_area:
clear_output(wait=True)
thinking_html = HTML("'margin: 10px; padding: 10px; background-color: #f1f8e9; border-radius: 5px; border-left: 4px solid #8bc34a; color: #33691e;'>アシスタント考え中...
")
display(thinking_html)
# レスポンスをストリーミング
try:
for chunk in chat(model="qwen3:4b", messages=conversation_history, stream=True):
content = chunk["message"]["content"] if "message" in chunk and "content" in chunk["message"] else ""
if " " in content and not in_thinking:
in_thinking = True
thinking_content = ""
if in_thinking:
thinking_content += content
# 思考表示を更新
with thinking_area:
clear_output(wait=True)
formatted_thinking = thinking_content.replace(" ", "").replace("", "")
display(HTML(f"'margin: 10px; padding: 10px; background-color: #f1f8e9; border-radius: 5px; border-left: 4px solid #8bc34a; color: #33691e;'>思考プロセス:'white-space: pre-wrap; background-color: #fafafa; padding: 8px; border-radius: 4px; color: #37474f;'>{formatted_thinking}
"))
if "" in content:
in_thinking = False
# 思考履歴に追加
if formatted_thinking:
thinking_history.append({
"question": user_input,
"thinking": formatted_thinking
})
# 思考履歴表示を更新
with thinking_history_area:
clear_output(wait=True)
for i, item in enumerate(thinking_history):
display(HTML(f"""
'margin: 10px; padding: 10px; background-color: #fff8e1; border-radius: 5px; border-left: 4px solid #ffc107; margin-bottom: 15px;'>
'font-weight: bold; color: #bf360c; margin-bottom: 5px;'>質問 {i+1}: {item['question']}
'background-color: #fafafa; padding: 8px; border-radius: 4px; color: #37474f;'>
'white-space: pre-wrap; margin: 0;'>{item['thinking']}
"""))
else:
response_content += content
# レスポンス表示を更新
with output_area:
# 最新のメッセージを含む全履歴を表示
clear_output(wait=True)
# 過去のメッセージを再表示
for i, msg in enumerate(conversation_history):
if msg["role"] == "user":
display(HTML(f"
'margin: 10px; padding: 10px; background-color: #e3f2fd; border-radius: 5px; border-left: 4px solid #2196F3; color: #0d47a1;'>あなた: {msg['content']}
"))
elif msg["role"] == "assistant" and i > 0: # システムメッセージをスキップ
display(HTML(f"
'margin: 10px; padding: 10px; background-color: #e8f5e9; border-radius: 5px; border-left: 4px solid #4caf50; color: #1b5e20;'>アシスタント: {remove_thinking_tags(msg['content'])}
"))
# 現在のレスポンスを表示
display(HTML(f"
'margin: 10px; padding: 10px; background-color: #e8f5e9; border-radius: 5px; border-left: 4px solid #4caf50; color: #1b5e20;'>アシスタント: {response_content}
"))
# アシスタントのレスポンスを会話履歴に追加
full_response = thinking_content + response_content
conversation_history.append({"role": "assistant", "content": full_response})
except Exception as e:
with output_area:
display(HTML(f"
'margin: 10px; padding: 10px; background-color: #ffebee; border-radius: 5px; border-left: 4px solid #f44336; color: #b71c1c;'>エラー: {str(e)}
"))
finally:
# 入力を再有効化
text_input.disabled = False
send_button.disabled = False
# 思考エリアをクリア
with thinking_area:
clear_output()
# イベントリスナーを設定
send_button.on_click(on_send_button_clicked)
clear_button.on_click(clear_history)
show_thinking_history.observe(toggle_thinking_history, names='value')
# Enterキーでも送信できるように(Shift+Enterは改行用に予約)
def on_key_press(widget, event):
if event.get('type') == 'keydown' and event.get('key') == 'Enter' and not event.get('shiftKey'):
on_send_button_clicked(None)
return True
return False
text_input.observe(on_key_press, names=['_keydown'])
# ボタンをグループ化
button_box = widgets.HBox([send_button, clear_button], layout=widgets.Layout(justify_content='space-between'))
# 思考履歴ボックスを作成
thinking_history_box = widgets.VBox([
thinking_history_label,
thinking_history_area
], layout=widgets.Layout(display='flex', margin='10px 0'))
# 最終的なチャットUIを構築
chat_ui = widgets.VBox([
title,
instructions,
widgets.HBox([chat_label]),
output_area,
widgets.HBox([thinking_label]),
thinking_area,
widgets.HBox([show_thinking_history]),
thinking_history_box,
widgets.HBox([text_input]),
button_box
], layout=widgets.Layout(width='100%', padding='10px'))
# チャットインターフェースを表示
display(chat_ui)
動作の仕組み
このインターフェースでは、以下の仕組みで思考プロセスを可視化しています。
-
システムプロンプトによる指示: LLMに対して思考プロセスを
タグで囲むよう指示 - ストリーミングレスポンスの解析: レスポンスをストリーミングで受け取り、タグを検出して思考部分と回答部分を分離
- リアルタイム表示: 思考プロセスを専用のエリアにリアルタイムで表示
- 履歴保存: 思考プロセスの履歴を保存して後から参照可能に
試してみた質問
Q. 今日は天気がいい。お昼はカレーにしたい。どんなカレーがいいかな?
Qwen3さん: 天気がいい日にお昼は、軽くさっぱりしたカレーがおすすめです! 例えば、**野菜たっぷりのカレーやトマトベースのカレー**なら、温かさと涼しさのバランスが取りやすく、食欲もアップします。 もし肉がお好きななら、**牛肉や鶏肉のカレー**も美味しいですが、季節感を重視するなら、きんぴらやナッツを加えた「**カレーライスに加えてトマトサルサ**」とか、**カレーパン**もおすすめです。 何がお好みですか? 😊
思考プロセス (機械翻訳) :
質問 1: 今日は天気がいい。お昼はカレーにしたい。どんなカレーがいいかな?
ユーザーは、天気が良いのでお昼にどんなカレーを食べようか悩んでいるようです。さて、どんなカレーが良いか考えてみましょう。
まず、季節や気候を考慮するべきですね。天気が良いなら、少し軽めのカレーが良いかもしれません。例えば、ベジタリアン向けのカレーとか。それとも、風味を求めてスパイシーなものがいいでしょうか。
一般的なカレーには、ビーフ、チキン、野菜、エビなどがあります。ただし、ユーザーは特に食事制限などには触れていません。いくつかの選択肢を提案して、それぞれの良さを説明するのが良さそうです。
また、簡単に作れるものや、味のバランスが良いカレーを求めているかもしれません。ご飯と一緒に食べる定番のカレーや、野菜の副菜がついたカレーなども紹介できそうです。
ユーザーが自分の好みに合わせて選べるように、親しみやすく、役に立つ形で複数のタイプのカレーを提案するべきですね。
4BだがLLMの知ってる世界であれば、まともな提案している。1年まえから考えると進化している。自分より良い提案してるかもしれん・・・。
まとめ
今回は、Google Colabを使ってローカルLLMのQwen3の思考プロセスを可視化する方法を紹介しました。この手法を使うことで、LLMがどのように推論を組み立て、結論に至るのかを観察できます。
ぜひ皆さんも、LLMの「頭の中」を覗いてみてください。思わぬ発見があるかもしれません!
参考資料
Views: 2