diff --git a/src/pages/posts/2024/selfhosted_llm.md b/src/pages/posts/2024/selfhosted_llm.md
index 0bacc54..aefb321 100644
--- a/src/pages/posts/2024/selfhosted_llm.md
+++ b/src/pages/posts/2024/selfhosted_llm.md
@@ -298,7 +298,7 @@ docker run --net=host diy-ollama-proxy
Для обновления и удаления моделей можно использовать команды `pull` и `rm`:
```
docker exec -it ollama ollama pull mixtral
-docker exec -it ollama ollama rm mistral
+docker exec -it ollama ollama rm mistral
```
Я знаю, что для обновления и удаления docker-образов и docker-контейнеров тоже есть специальные команды (это тоже `pull` и `rm`), но каждый раз ленюсь в этом разобраться, просто сношу всё с помощью утилиты [sen](https://github.com/TomasTomecek/sen) и разворачиваю нужное заново.
@@ -319,7 +319,7 @@ docker exec -it ollama ollama rm mistral
## Зачем всё это нужно?
-Конечно, GhatGPT умнее и умеет из коробки гораздо больше.
+Конечно, ChatGPT умнее и умеет из коробки гораздо больше.
Конечно, ChatGPT требует меньше телодвижений для использования.
Конечно, самые умные модели требуют внушительных ресурсов, ведь для запуска нашумевшей [mixtral](https://ollama.ai/library/mixtral) или аналогичной модели нужно иметь 48 Gb оперативной памяти.
Кончено, сидя в кафе задать вопрос Bard от Google гораздо проще, чем достучаться до модели в закрытом ноутбуке, который остался дома.