반응형
터미널에서 LLM 특히나 OpenAI API 연동하여 쓰고 싶다면 aichat을 설치해서 쓰면 된다!
aichat를 OpenAI API로 쓰는 방법을 설치 → 키 설정 → 모델 지정 → 실전 예제 순서로 깔끔하게 정리해 드릴게요.
(맥 기준, CLI 실무용)
1️⃣ aichat 설치
brew install aichat
설치 확인
aichat --version
2️⃣ OpenAI API Key 설정 (가장 중요)
✅ 방법 A: 환경변수 (권장)
export OPENAI_API_KEY="sk-xxxx"
영구 적용 (zsh)
echo 'export OPENAI_API_KEY="sk-xxxx"' >> ~/.zshrc
source ~/.zshrc
3️⃣ OpenAI 모델 지정
aichat은 provider + model 구조입니다.
기본 설정
aichat config set provider openai
모델 지정 (예시)
aichat config set model gpt-4.1-mini
현재 설정 확인
aichat config list
4️⃣ 가장 기본적인 사용법
단발성 질문
aichat "Explain WMAPE with a simple example"
대화형 모드
aichat
You: Explain MAE vs RMSE
AI: ...
You: Give a real business example
5️⃣ CLI에서 진짜 강력한 사용법 (🔥핵심)
📌 stdin 파이프 사용
cat error.log | aichat "이 로그의 원인과 해결책 설명"
git diff | aichat "코드 리뷰해줘. 성능/가독성 위주"
cat query.sql | aichat "이 SQL 성능 병목 분석"
6️⃣ 실무에서 많이 쓰는 옵션들
시스템 프롬프트 지정
aichat -s "You are a senior data engineer" \
"Explain Iceberg compaction strategy"
출력 짧게
aichat -s "Answer briefly" "Explain L1 vs L2 loss"
마크다운 유지
aichat --format markdown "Summarize this document"
7️⃣ 프롬프트 템플릿화 (추천)
alias 예시
alias llm-review='aichat -s "You are a senior reviewer. Be strict."'
alias llm-explain='aichat -s "Explain step by step in simple terms."'
alias llm-fix='aichat -s "Fix bugs and improve code quality."'
사용
git diff | llm-review
cat dag.py | llm-explain
8️⃣ 비용 & 토큰 관련 팁
- aichat은 토큰 사용량을 직접 보여주지 않음
- OpenAI 대시보드에서 사용량 확인
- 긴 로그/파일은:
tail -n 200 error.log | aichat "요약"
9️⃣ 자주 나는 문제
❌ No API key provided
→ OPENAI_API_KEY 환경변수 확인
echo $OPENAI_API_KEY
❌ 모델 에러
aichat config set model gpt-4.1-mini
10️⃣ 추천 실전 조합 (Tommy 스타일 😄)
# 로그 분석
kubectl logs pod | aichat "원인 분석 + 조치"
# Spark SQL
cat query.sql | aichat "Spark 기준으로 최적화 포인트"
# Iceberg
cat ddl.sql | aichat "Iceberg 테이블 설계 리뷰"
반응형
'Areas > LLM' 카테고리의 다른 글
| MCP(Model Context Protocol) (1) | 2025.03.23 |
|---|---|
| LLM System 프롬프트 예시 (0) | 2025.03.18 |
| LLM 다운로드시 뒤에 붙은 양자화(Quantization) 기호 읽는 법 (0) | 2025.03.09 |