MacBook Pro M5 Pro/Maxの全貌:AI性能4倍・SSD速度&容量2倍、ローカルLLMが実用域に
MacBook Pro M5 Pro/Maxは新設計Fusionアーキテクチャでai性能4倍、SSD速度2倍、最大128GBメモリ搭載。LLMローカル実行が実用域に入った全スペックと買い替え判断基準を整理する
21 posts
MacBook Pro M5 Pro/Maxは新設計Fusionアーキテクチャでai性能4倍、SSD速度2倍、最大128GBメモリ搭載。LLMローカル実行が実用域に入った全スペックと買い替え判断基準を整理する
2026年春節に中国AI5社がフロンティアモデルを一斉公開。Qwen 3.5・GLM-5・MiniMax M2.5・Kimi K2.5のベンチマーク比較と、DeepSeek V4のリーク情報を整理し、API料金や試し方まで網羅する。
GLM-5はSWE-benchでClaude Opus 4.5に3.1pt差、BrowseCompでは全モデル1位。API価格はOpusの6分の1でMITオープンウェイト公開
Mistral AIのVoxtral Transcribe 2は1時間27円でWhisper超えの精度を実現。バッチ・リアルタイム両対応で話者識別も標準搭載
Alibaba発のQwen Image Layeredは1枚の画像を前景・背景・テキストなどのレイヤーに自動分解するモデル。Hugging Faceデモの使い方とvast.aiでGPUを借りて本格運用する手順を解説する。
480Bパラメータの巨大モデルQwen3 CoderはコーディングベンチマークでClaude 4 Sonnetに迫りつつAPI価格は約3分の1。Qwen Code CLIやCerebras Codeでの無料利用法を含め、開発者向けに実力を検証する。
Ollamaが待望のチャットUIアプリをリリースし、DeepSeek・Llama・Gemmaなどのオープンソースモデルをローカルで誰でも快適に使えるようになった。PDF・画像の読み込みにも対応
中国Z.aiの新モデルGLM-4.5はDeepSeek R1を大幅に上回りClaude 4 Opusの20分の1の価格。MITオープンソースで無料利用可能
Alibaba Qwen3は0.6Bから235B MoEまで8モデルを展開し、ベンチマークでDeepSeek R1を上回る。思考・非思考モードの切替機構やApache 2.0ライセンスの商用利用メリットを解説する。
Metaが公開したLlama 4 ScoutとMaverickはMoEアーキテクチャで最大1000万トークンのコンテキストを処理できるマルチモーダルモデルだ。性能・構成・利用方法を解説する。
DeepSeekの低コストAIモデルがNVIDIAのGPU独占体制を揺るがす構造を、投資家兼エンジニアの論考をもとに解説する
PocketPal AIアプリでDeepSeek R1蒸留モデルをiPhone・Androidのローカル環境で動かす手順を解説。オフラインでも動作する
DeepSeek R1の蒸留モデル6種をOllamaでMac Book Airに導入する手順を解説。8Bモデルは一部ベンチマークでGPT-4o超えの性能を示す
OpenAI o1比96%オフのAPI価格でo1同等性能を実現したDeepSeek R1の使い方をWeb・アプリ・API別に解説し、o1との実力差を検証する
Llama 3.3 70Bは従来の405Bモデルに匹敵する性能を6分の1のパラメータ数で実現したMetaの最新オープンモデルだ。ベンチマーク比較とローカル実行方法を解説する。
PocketPalはiPhone・Androidでローカル動作するLLMアプリ。Llama 3.2 3BをiPhone 12 miniで実行した応答速度や精度を検証し、オフラインAIチャットの実用性と導入手順を解説する。
Metaの大規模オープンモデルLlama 3.1を405B・70B・8Bの3サイズで比較し、GPT-4oやClaude 3.5 Sonnetとの性能差やGroq・Vast.aiでの実行方法を解説する。
Cohereの多言語LLM「Aya 23」8BモデルはMacBook Airでもサクサク動作し、Llama 3 8Bより安定した日本語出力が得られる。Ollamaでのインストール手順とチャットUI連携方法を解説
Microsoftの小型モデルPhi-3 Mini(38億パラメータ)とMeta Llama 3 8Bを4つのプロンプトで比較検証。Ollama+ChatbotUIでのローカル導入手順と、各モデルの日本語・推論性能の差を明らかにする。
Open WebUIはDocker一発でインストールでき、Llama 3やGPT-4をChatGPT風UIでローカル利用できる無料アプリである。Mac向けの導入手順をゼロから解説
Llama 3 8BをMacのローカル環境で動かす手順をOllamaとOpen WebUIを使って解説する。M1以降のApple Siliconなら快適に動作し、API不要で完全オフライン利用が可能だ。