GifproGifpro

Ollama 本地 LLM 聊天界面 AI 生成提示词示例

代码预览

エディタを読み込み中…
P

提示词

Create a single HTML page demonstrating how to call a local Ollama LLM from Node.js. Show a simple chat interface that sends a prompt to Ollama's API (http://localhost:11434/api/generate) and displays the response. Use modern CSS (Tailwind via CDN) and minimal JS. Keep it functional and clean.

ローカルのOllama LLMと通信するためのミニマルで機能的なWebインターフェースです。/api/generateエンドポイントを介してプロンプトを送信し、モデルの応答をリアルタイムで表示します。Tailwind CSSでクリーンなダークテーマ、Vanilla JSでシンプルに構築。ローカルLLM環境をすぐにテストしたい開発者に最適です。

提示词解读

这是一个用于与本地Ollama LLM通信的极简且实用的Web界面。它通过/api/generate端点发送提示词,并实时显示模型的响应。采用Tailwind CSS打造简洁的深色主题,使用原生JavaScript构建,简单易用。非常适合希望快速测试本地LLM环境的开发者。

这个提示对您有帮助吗?

评论

评论将在审核后显示

この記事が役に立ったら投げ銭で応援

Apple Pay / Google Pay / カード (Visa/Mastercard/JCB/Amex) / Link / Alipay / WeChat Pay 対応 · Stripeで安全に決済

開発者が選ぶ最強ツール集

運営者が毎日使っているツール・ガジェット 6選

見る
首页ヘルプ
Ollama 本地 LLM 聊天界面 AI 生成提示词示例 | ギフプロ | ギフプロ