코딩 몰라도 OK! 초보자도 쉽게 따라하는 Ollama 설치법

코딩 몰라도 OK! 초보자도 쉽게 따라하는 Ollama 설치법
"미래는 기술을 이해하는 사람의 것이다." – 에릭 슈밋

요즘 AI 좀 쓰는 사람은 꼭 이렇게 말하죠.

"어? 그거 나 로컬에서 돌려봤는데~?"

...헉. 로컬에서? 그게 가능한 거였어요? 🫨

맞아요, 이제는 거창한 서버나 클라우드 없이도, 내 소중한 컴퓨터에서 대형 언어 모델(LLM)을 뚝딱 실행할 수 있는 시대!
그 중심에 딱! 하고 자리 잡은 게 바로 Ollama(올라마)입니다. 이름도 귀엽고 기능도 똑똑한 이 친구, 설치도 완전 간단해서 깜짝 놀라실 걸요?

오늘은 저 고블로가!
올라마 설치 방법’을 주제로, 마치 친구에게 알려주듯 수다스럽게~ 설명해드릴게요! 🍵


🛠️ 올라마, 너 정체가 뭐니?

일단 이 올라마란 친구, 뭘 할 수 있냐면요...

  • 터미널에 ollama run llama2 딱 한 줄만 치면 AI 모델 실행!
  • Mistral, LLaMA 2, Gemma, Code Llama, Whisper 등 인기 모델 지원!
  • Mac, Linux, Windows 어디서든 돌아간다구요~
  • 로컬에서 OpenAI API 호환 서비스를 바로 제공!
  • 게다가 Modelfile이라는 도구로 나만의 AI도 만들 수 있어요~ 🎨

한마디로, “AI를 뚝딱 실행하고, 내 입맛대로 꾸미고, API도 연결되는”
로컬 AI 덕후의 드림툴이 바로 올라마예요. 😍


🎯 올라마 설치 방법 – 깜짝 놀랄 만큼 쉬움!

자, 그럼 이제 본론!
설치 방법만 제대로 알고 있으면, 누구든 금세 AI 마스터가 될 수 있어요. 운영 체제별로 딱딱 정리해드릴게요!

🍏 macOS (Apple 실리콘 & Intel 둘 다 OK!)

curl -fsSL https://ollama.com/install.sh | sh

→ 터미널 열고 요 한 줄만 복사해서 붙여넣기! 그럼 끝! 끝! 🎉

🐧 Linux (우분투, 데비안 등 다 가능~)

curl -fsSL https://ollama.com/install.sh | sh

→ 맥이랑 똑같죠? 깔끔하고 통일성 있는 설치 방법, 고마워요 올라마💚

🪟 Windows (WSL2는 친구 같은 존재)


🤖 설치 후, 이렇게 쓰면 된다!

짜잔! 설치 완료했다면? 바로 모델을 실행해보죠~

ollama run llama2

이게 전부예요. 모델이 자동으로 다운로드되고,
바로 AI 챗봇처럼 대화할 수 있는 상태가 됩니다! 꺄~ 신기해! 😆

🎤 이런 모델들 써볼 수 있어요!

  • ollama run llama2
  • ollama run mistral
  • ollama run gemma
  • ollama run codellama
  • ollama run whisper

→ 더 많은 모델은 Ollama 모델 라이브러리에서 구경 고고!


📡 API? 로컬에서도 된다니까요!

놀랍게도... 올라마는 OpenAI API와 거의 똑같은 인터페이스를 로컬에서 제공합니다.

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "고양이에 대해 이야기해줘."
}'

→ 와우! 그동안 OpenAI 키에 의존했던 내 앱들,
이제는 로컬에서도 똑같이 동작 가능하단 거죠~ 🎉


🧑‍🔧 나만의 모델? 만들 수 있죠~

Modelfile로 설정 몇 줄만 추가하면,
기존 모델을 기반으로 나만의 개성을 입힌 AI를 만들 수 있어요.

FROM llama2
SYSTEM "너는 언제나 친절하고 귀여운 AI야!"

그리고 다음 명령어:

ollama create my-model -f Modelfile

→ 짜잔! 세상에서 하나뿐인 나만의 AI 등장~ 🎩✨


✂️ 모델 정리도 간단!

다 쓰고 정리하고 싶을 땐?

ollama rm 모델이름

예: ollama rm llama2
→ 깔끔하게 제거 완료! 💨


📦 모델 저장/불러오기 기능도 있어요!

혹은 다른 컴퓨터로 옮길 땐:

ollama pull 모델이름

저장한 모델 불러오기:

ollama load < 이름.ollama

모델을 파일로 저장:

ollama save 모델이름 > 이름.ollama

→ 로컬 AI의 휴대성까지 보장! 여행가도 데려가자~ 😎


🧾 정리하면 이렇게!

항목 내용
설치 macOS/Linux: 한 줄 설치 스크립트 / Windows: WSL2 필요
모델 실행 ollama run 모델이름으로 간편 실행
API 사용 localhost:11434로 OpenAI 호환 API 제공
모델 만들기 Modelfilecreate 명령어 활용
모델 삭제 ollama rm으로 깔끔 정리
모델 저장/불러오기 save, load, pull 명령어 사용

💌 마무리하며...

Ollama 덕분에, 우리 집 컴퓨터가 AI 연구소가 되는 그날까지!
설치 방법도, 실행도, 나만의 AI 만들기도 이보다 쉬울 수 없다구요~

혹시 지금도 망설이고 계신가요?
그렇다면 한 번 설치해보세요. 딱 5분이면 됩니다.
그리고 나면, 정말 깜짝 놀랄걸요? 😊