-
Openmanus + Ollama 내장 모델 사용하기.DEV/nlp 2025. 3. 26. 15:04
OpenManus Setting
📌 Conda Setting
Conda 환경에 Open WebUI를 설정하기 위해 콘다 설치 및 실행
Install : https://anaconda.org/anaconda/conda
# Install conda create -n open_manus python=3.12 # Conda Activate conda activate open_manus
📌 Clone OpenManus (git)
# Clone the repository & open OpenManus Folder git clone https://github.com/mannaandpoem/OpenManus.git cd OpenManus # install dependencies pip install -r requirements.txt
📌 Clone OpenManus
- Configuration을 위해 config.example.toml을 복사 (직접 파일 만들어서 작성해도 됨)
cp config/config.example.toml config/config.toml
- config.example.toml 수정
[llm] #OLLAMA: api_type = 'ollama' model = "qwen2.5:14b" base_url = "http://localhost:11434/v1" api_key = "ollama" max_tokens = 4096 temperature = 0.0
Ollama qwen2.5 install sample
'DEV > nlp' 카테고리의 다른 글
서버에 Open WebUI 올려서 서빙하기 / LLM 모델 사용하기 (0) 2025.03.24 Ollama python 모델 실행하기. (0) 2024.10.28 Mac OS / Windows Ollama로 eeve 모델 설치하여 사용하기 (2) 2024.09.25 NLP 자연어 처리 정리 1 (0) 2024.08.22 LLaMA2 Meta의 LLM... (1) 2024.04.18