Ollama 本地 LLM 聊天界面 AI 生成提示词示例
代码预览
エディタを読み込み中…
P
提示词
Create a single HTML page demonstrating how to call a local Ollama LLM from Node.js. Show a simple chat interface that sends a prompt to Ollama's API (http://localhost:11434/api/generate) and displays the response. Use modern CSS (Tailwind via CDN) and minimal JS. Keep it functional and clean.
ローカルのOllama LLMと通信するためのミニマルで機能的なWebインターフェースです。/api/generateエンドポイントを介してプロンプトを送信し、モデルの応答をリアルタイムで表示します。Tailwind CSSでクリーンなダークテーマ、Vanilla JSでシンプルに構築。ローカルLLM環境をすぐにテストしたい開発者に最適です。
提示词解读
这是一个用于与本地Ollama LLM通信的极简且实用的Web界面。它通过/api/generate端点发送提示词,并实时显示模型的响应。采用Tailwind CSS打造简洁的深色主题,使用原生JavaScript构建,简单易用。非常适合希望快速测试本地LLM环境的开发者。
这个提示对您有帮助吗?
评论
评论将在审核后显示
この記事が役に立ったら投げ銭で応援
Apple Pay / Google Pay / カード (Visa/Mastercard/JCB/Amex) / Link / Alipay / WeChat Pay 対応 · Stripeで安全に決済
開発者が選ぶ最強ツール集
運営者が毎日使っているツール・ガジェット 6選