Ollama Local LLM Chat UI – Node.js HTML Prompt Example
CODE PREVIEW
エディタを読み込み中…
P
Prompt
Create a single HTML page demonstrating how to call a local Ollama LLM from Node.js. Show a simple chat interface that sends a prompt to Ollama's API (http://localhost:11434/api/generate) and displays the response. Use modern CSS (Tailwind via CDN) and minimal JS. Keep it functional and clean.
ローカルのOllama LLMと通信するためのミニマルで機能的なWebインターフェースです。/api/generateエンドポイントを介してプロンプトを送信し、モデルの応答をリアルタイムで表示します。Tailwind CSSでクリーンなダークテーマ、Vanilla JSでシンプルに構築。ローカルLLM環境をすぐにテストしたい開発者に最適です。
Prompt Overview
This is a minimal and functional web interface for communicating with a local Ollama LLM. It sends prompts via the /api/generate endpoint and displays the model's responses in real time. Built with a clean dark theme using Tailwind CSS and simple Vanilla JS. Ideal for developers who want to quickly test a local LLM environment.
Was this prompt helpful?
Comments
Comments appear after moderation
この記事が役に立ったら投げ銭で応援
Apple Pay / Google Pay / カード (Visa/Mastercard/JCB/Amex) / Link / Alipay / WeChat Pay 対応 · Stripeで安全に決済
開発者が選ぶ最強ツール集
運営者が毎日使っているツール・ガジェット 6選