티스토리 뷰

챗지피티가 처음 나왔을 때, 엉뚱한 소리를 많이하고, 알려준것을 수정하면서 작업하는 것보다,

그냥 직접 작성하는게 빨라서 잘 안 사용했었는데,

최근 챗지피티 ChatGPT 4o가 나오고 나서는, 아주 맘에든다,

구글 검색보다는, 지피티에 의존을 많이하게 되었고, 엉뚱한 소리를 하면, 메뉴얼을 던져주고 알려달라고하면 제대로 알려준다.

 

그래서 자연스럽게 코파일럿에 관심을 갖게되었는데, (참고로 필자는 AWS 에서 제공되는 것을 사용했었음)

무료 체험 기간 맛보기를 해보니 편함 <<<<< 유료 였다.

쉽게 말해서 값어치를 하기엔 좀 아직... ?

 

그러던중에 ollama를 알게 되었는데,

LLM을 로컬로 설치하여 불러오는 방식이다, 언어 모델이 여러개 있는데 가장큰것은 몇십기가 이긴하지만, 적당한 선에서 설치해서 사용해보니, 와우 ....

 

몇일 더 사용해봐야겠지만, 일단 첫인상은 합격..

미래에 설치를 까먹을 나를 위해 기록한다.

 

1. ollama 설치 

https://github.com/ollama/ollama

- 설치 후 퀵스타트 언어 다운로드 :

ollama run llama3

 

 

GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

Get up and running with Llama 3, Mistral, Gemma, and other large language models. - ollama/ollama

github.com

 

2. IDE에 플러그인 설치 (countinue) 

 - vscode : https://marketplace.visualstudio.com/items?itemName=Continue.continue

- jetbrain : https://plugins.jetbrains.com/plugin/22707-continue

 

3. 적용

- jetbrain 기준

1번을 제대로 설치했었다면, 설정에서 기본 api 에서 local 로 설정하고 하라는 대로 하면된다.

 

 

 

댓글


최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday