반응형

 

터미널에서 LLM 특히나 OpenAI API 연동하여 쓰고 싶다면 aichat을 설치해서 쓰면 된다!

 

aichat를 OpenAI API로 쓰는 방법설치 → 키 설정 → 모델 지정 → 실전 예제 순서로 깔끔하게 정리해 드릴게요.
(맥 기준, CLI 실무용)


1️⃣ aichat 설치

brew install aichat

설치 확인

aichat --version

2️⃣ OpenAI API Key 설정 (가장 중요)

✅ 방법 A: 환경변수 (권장)

export OPENAI_API_KEY="sk-xxxx"

영구 적용 (zsh)

echo 'export OPENAI_API_KEY="sk-xxxx"' >> ~/.zshrc
source ~/.zshrc

3️⃣ OpenAI 모델 지정

aichat은 provider + model 구조입니다.

기본 설정

aichat config set provider openai

모델 지정 (예시)

aichat config set model gpt-4.1-mini

현재 설정 확인

aichat config list

4️⃣ 가장 기본적인 사용법

단발성 질문

aichat "Explain WMAPE with a simple example"

대화형 모드

aichat
You: Explain MAE vs RMSE
AI: ...
You: Give a real business example

5️⃣ CLI에서 진짜 강력한 사용법 (🔥핵심)

📌 stdin 파이프 사용

cat error.log | aichat "이 로그의 원인과 해결책 설명"
git diff | aichat "코드 리뷰해줘. 성능/가독성 위주"
cat query.sql | aichat "이 SQL 성능 병목 분석"

6️⃣ 실무에서 많이 쓰는 옵션들

시스템 프롬프트 지정

aichat -s "You are a senior data engineer" \
       "Explain Iceberg compaction strategy"

출력 짧게

aichat -s "Answer briefly" "Explain L1 vs L2 loss"

마크다운 유지

aichat --format markdown "Summarize this document"

7️⃣ 프롬프트 템플릿화 (추천)

alias 예시

alias llm-review='aichat -s "You are a senior reviewer. Be strict."'
alias llm-explain='aichat -s "Explain step by step in simple terms."'
alias llm-fix='aichat -s "Fix bugs and improve code quality."'

사용

git diff | llm-review
cat dag.py | llm-explain

8️⃣ 비용 & 토큰 관련 팁

  • aichat은 토큰 사용량을 직접 보여주지 않음
  • OpenAI 대시보드에서 사용량 확인
  • 긴 로그/파일은:
tail -n 200 error.log | aichat "요약"

9️⃣ 자주 나는 문제

❌ No API key provided

→ OPENAI_API_KEY 환경변수 확인

echo $OPENAI_API_KEY

❌ 모델 에러

aichat config set model gpt-4.1-mini

10️⃣ 추천 실전 조합 (Tommy 스타일 😄)

# 로그 분석
kubectl logs pod | aichat "원인 분석 + 조치"

# Spark SQL
cat query.sql | aichat "Spark 기준으로 최적화 포인트"

# Iceberg
cat ddl.sql | aichat "Iceberg 테이블 설계 리뷰"

 

반응형

+ Recent posts