AIGPAIGP

動かせ!OllamaローカルLLMをNode.jsから呼ぶ方法

P

Prompt

Generate a minimal, functional code example that connects to a locally running Ollama instance using Node.js ESM (fetch / undici). The example should send a chat completion request to the Ollama API (http://localhost:11434/api/chat) with a simple message and log the streaming response. Include error handling for fetch failures.

VISTA DE CÓDIGO

エディタを読み込み中…

AIとの対話に追加する一言

プロンプトと一緒にコピーして、AIがより正確に意図を汲み取れるようにします

このコードをそのまま使いたいので、CDNリンクも含めた完全なHTMLファイルとして出力してください。

初心者なので、各行にコメントを追加して、何をしているか説明してください。

このコードをWordPressのテーマに組み込む方法も教えてください。

動作確認済みのコードをお願いします。エラーが出る場合の対処法も含めて。

この例では、ローカルで動作するOllamaインスタンスにNode.js ESMスクリプトから接続する方法を示します。Ollama API(http://localhost:11434/api/chat)にユーザーメッセージを含むチャット完了リクエストを送信し、ストリーミング応答を1行ずつ処理してコンソールに出力します。HTTPエラーやネットワーク障害のハンドリングも含まれています。

前提条件:
ollama.com からOllamaをインストール
– モデルをダウンロード(例: ollama pull llama3.2
– Ollamaサービスが起動していること

コードでは、Node.js 18以降で利用可能な組み込みの fetch API と ReadableStream リーダーを使ってストリーミングを処理しています。リクエストボディの stream: true パラメータにより、トークン単位でのストリーミング応答が有効になります。

¿Te resultó útil este prompt?

Comentarios

Los comentarios aparecen después de la moderación

この記事が役に立ったら投げ銭で応援

Apple Pay / Google Pay / カード (Visa/Mastercard/JCB/Amex) / Link / Alipay / WeChat Pay 対応 · Stripeで安全に決済

開発者が選ぶ最強ツール集

運営者が毎日使っているツール・ガジェット 6選

見る
Inicioヘルプ