GifproGifpro

Chat UI con Ollama LLM local – ejemplo de prompt Node.js

VISTA DE CÓDIGO

エディタを読み込み中…
P

Prompt

Create a single HTML page demonstrating how to call a local Ollama LLM from Node.js. Show a simple chat interface that sends a prompt to Ollama's API (http://localhost:11434/api/generate) and displays the response. Use modern CSS (Tailwind via CDN) and minimal JS. Keep it functional and clean.

ローカルのOllama LLMと通信するためのミニマルで機能的なWebインターフェースです。/api/generateエンドポイントを介してプロンプトを送信し、モデルの応答をリアルタイムで表示します。Tailwind CSSでクリーンなダークテーマ、Vanilla JSでシンプルに構築。ローカルLLM環境をすぐにテストしたい開発者に最適です。

Resumen del prompt

Una interfaz web minimalista y funcional para comunicarse con el LLM local de Ollama. Envía indicaciones a través del endpoint /api/generate y muestra las respuestas del modelo en tiempo real. Cuenta con un tema oscuro limpio con Tailwind CSS y está construida de manera simple con Vanilla JS. Ideal para desarrolladores que desean probar rápidamente un entorno LLM local.

¿Te resultó útil este prompt?

Comentarios

Los comentarios aparecen después de la moderación

この記事が役に立ったら投げ銭で応援

Apple Pay / Google Pay / カード (Visa/Mastercard/JCB/Amex) / Link / Alipay / WeChat Pay 対応 · Stripeで安全に決済

開発者が選ぶ最強ツール集

運営者が毎日使っているツール・ガジェット 6選

見る
Inicioヘルプ