آموزش قدم به قدم راهاندازی GitHub Copilot Chat روی سرور شخصی با LLM رایگان
آموزش قدم به قدم راهاندازی GitHub Copilot Chat روی سرور شخصی با LLM رایگان

قدم 1: پیشنیازها
برای راهاندازی Copilot Chat به موارد زیر نیاز داری:
Git و Node.js (نصب با دستور
sudo apt install git nodejs npm)NET 8.0 SDK
Docker و Docker Compose (برای اجرا کردن مدل)
GPU یا CPU نسبتاً قوی
قدم 2: کلون کردن مخزن Copilot Chat
git clone https://github.com/microsoft/chat-copilot.gitcd chat-copilot
قدم 3: انتخاب یک LLM رایگان (Mistral یا Phi-3)
ما از Ollama استفاده میکنیم برای اجرای مدل:
curl -fsSL https://ollama.com/install.sh | sh
ollama run mistral
عملکرد این دستور:
curl -fsSL https://ollama.com/install.shاین قسمت با استفاده از ابزار
curlفایل اسکریپتی به نامinstall.shرا از آدرسhttps://ollama.com/install.shدانلود میکند.گزینهها:
-f: اگر خطایی رخ دهد، خروجی خطا را نشان ندهد (fail silently).-s: حالت silent (بیصدا)، یعنی هیچ خروجی غیر ضروری نشان ندهد.-S: در صورت خطا، پیام خطا نشان داده شود.-L: در صورت وجود ریدایرکت (انتقال به آدرس دیگر)، دنبال کند.
| shخروجی دانلود شده (که اسکریپت شل است) را مستقیم به شل (
sh) میدهد تا اجرا شود.
معنی و عملکرد دستور ollama run mistral:
ollamaاین یک ابزار خط فرمان (CLI) مربوط به پلتفرم Ollama است که برای مدیریت و اجرای مدلهای هوش مصنوعی محلی (Local AI Models) استفاده میشود.runیعنی اجرای یک مدل هوش مصنوعی که از قبل روی سیستم یا در دسترس ollama هست.mistralنام مدل هوش مصنوعی است که قصد داری اجرا کنی. مدلهای Mistral، مدلهای زبان بزرگ (Large Language Models) هستند که اخیراً محبوب شدهاند و Ollama یکی از روشهای اجراشون رو فراهم میکنه.
پس این دستور:
مدل Mistral را با استفاده از پلتفرم ollama اجرا میکند.
معمولاً بعد از اجرای این دستور، محیط تعاملی یا API برای پرسش و پاسخ با این مدل روی سیستم محلی یا سرورت فراهم میشود.
بعد از اجرا آدرس API مدل میشه: http://localhost:11434
قدم 4: تنظیم Chat Copilot برای استفاده از Ollama
فایل .env را در ریشه chat-copilot ایجاد کن:
AZURE_OPENAI_ENDPOINT=http://localhost:11434
AZURE_OPENAI_API_KEY=dummy-key
Ollama نیاز به key نداره فقط دروغین (dummy) بذار.
نکته مهم:
AZURE_OPENAI_ENDPOINTمسیر لوکالیه که Ollama مدل رو روی اون اجرا میکنه (معمولاً پورت11434).AZURE_OPENAI_API_KEYدر اینجا نیاز واقعی به کلید نیست چون Ollama نیازی به احراز هویت نداره، اما چون خود Chat Copilot انتظار داره یه کلید وجود داشته باشه، ما یه مقدار دلخواه مثلdummy-keyمیذاریم.
چرا اینکار جواب میده؟
چون Chat Copilot طوری طراحی شده که انگار با Azure OpenAI کار میکنه، اما با تنظیم آدرس و کلید جعلی، ما اون رو گول میزنیم تا با Ollama صحبت کنه.
قدم 5: راهاندازی سرور Chat Copilot
npm install
npm run dev
حالا در مرورگر بر روی http://localhost:3000 میتونی افزونه را تست کنی.
پایان:
حالا یک Copilot Chat داری که روی سرور خودت اجرا میشه و به یک LLM رایگان وصله!