AIGPAIGP

動かせ!OllamaローカルLLMをNode.jsから呼ぶ方法

P

プロンプト

ローカルで起動中のOllamaにNode.js ESM(fetch / undici)から接続する最小限のコード例を生成してください。Ollama API(http://localhost:11434/api/chat)にチャット完了リクエストを送り、ストリーミング応答をコンソールに出力します。fetchのエラーハンドリングも含めてください。

CODE PREVIEW

エディタを読み込み中…

AIとの対話に追加する一言

プロンプトと一緒にコピーして、AIがより正確に意図を汲み取れるようにします

このコードをそのまま使いたいので、CDNリンクも含めた完全なHTMLファイルとして出力してください。

初心者なので、各行にコメントを追加して、何をしているか説明してください。

このコードをWordPressのテーマに組み込む方法も教えてください。

動作確認済みのコードをお願いします。エラーが出る場合の対処法も含めて。

この例では、ローカルで動作するOllamaインスタンスにNode.js ESMスクリプトから接続する方法を示します。Ollama API(http://localhost:11434/api/chat)にユーザーメッセージを含むチャット完了リクエストを送信し、ストリーミング応答を1行ずつ処理してコンソールに出力します。HTTPエラーやネットワーク障害のハンドリングも含まれています。

前提条件:
ollama.com からOllamaをインストール
– モデルをダウンロード(例: ollama pull llama3.2
– Ollamaサービスが起動していること

コードでは、Node.js 18以降で利用可能な組み込みの fetch API と ReadableStream リーダーを使ってストリーミングを処理しています。リクエストボディの stream: true パラメータにより、トークン単位でのストリーミング応答が有効になります。

プロンプトの解説

この例では、ローカルで動作するOllamaインスタンスにNode.js ESMスクリプトから接続する方法を示します。Ollama API(http://localhost:11434/api/chat)にユーザーメッセージを含むチャット完了リクエストを送信し、ストリーミング応答を1行ずつ処理してコンソールに出力します。HTTPエラーやネットワーク障害のハンドリングも含まれています。

前提条件:
- ollama.com からOllamaをインストール
- モデルをダウンロード(例: ollama pull llama3.2
- Ollamaサービスが起動していること

コードでは、Node.js 18以降で利用可能な組み込みの fetch API と ReadableStream リーダーを使ってストリーミングを処理しています。リクエストボディの stream: true パラメータにより、トークン単位でのストリーミング応答が有効になります。

このプロンプトは役に立ちましたか?

コメント

コメントは承認後に表示されます

この記事が役に立ったら投げ銭で応援

Apple Pay / Google Pay / カード (Visa/Mastercard/JCB/Amex) / Link / Alipay / WeChat Pay 対応 · Stripeで安全に決済

開発者が選ぶ最強ツール集

運営者が毎日使っているツール・ガジェット 6選

見る
ホームヘルプ