From f3d55e77eb35633094b85eac919a3789d5d4f09f Mon Sep 17 00:00:00 2001 From: He4eT Date: Wed, 17 Jan 2024 14:03:27 +0100 Subject: [PATCH] posts: selfhosted_llm: fixup --- src/pages/posts/2024/selfhosted_llm.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/src/pages/posts/2024/selfhosted_llm.md b/src/pages/posts/2024/selfhosted_llm.md index 0bacc54..aefb321 100644 --- a/src/pages/posts/2024/selfhosted_llm.md +++ b/src/pages/posts/2024/selfhosted_llm.md @@ -298,7 +298,7 @@ docker run --net=host diy-ollama-proxy Для обновления и удаления моделей можно использовать команды `pull` и `rm`: ``` docker exec -it ollama ollama pull mixtral -docker exec -it ollama ollama rm mistral +docker exec -it ollama ollama rm mistral ``` Я знаю, что для обновления и удаления docker-образов и docker-контейнеров тоже есть специальные команды (это тоже `pull` и `rm`), но каждый раз ленюсь в этом разобраться, просто сношу всё с помощью утилиты [sen](https://github.com/TomasTomecek/sen) и разворачиваю нужное заново. @@ -319,7 +319,7 @@ docker exec -it ollama ollama rm mistral ## Зачем всё это нужно? -Конечно, GhatGPT умнее и умеет из коробки гораздо больше.
+Конечно, ChatGPT умнее и умеет из коробки гораздо больше.
Конечно, ChatGPT требует меньше телодвижений для использования.
Конечно, самые умные модели требуют внушительных ресурсов, ведь для запуска нашумевшей [mixtral](https://ollama.ai/library/mixtral) или аналогичной модели нужно иметь 48 Gb оперативной памяти.
Кончено, сидя в кафе задать вопрос Bard от Google гораздо проще, чем достучаться до модели в закрытом ноутбуке, который остался дома.