Salesforce Flow에 LLM을 안전하고 비용효율적으로 연동해 자동화·문서생성·고객응대 워크플로를 구축하는 단계별 실무 가이드.
- 핵심: Flow에서 LLM 호출 구조(입력/출력/에러 핸들링)와 보안·거버넌스 체크리스트 제공
- 비용·성능: OpenAI/ Azure OpenAI 등 주요 옵션의 지연시간·비용 비교표 수록
- 실무 팁: 트리거 설계, 토큰 관리, 감사 로그 연동 및 롤백 패턴 예시 포함
인공지능 인사이트 에디토리얼 팀의 분석 결과를 바탕으로, Salesforce Flow와 외부 또는 관리형 LLM을 연동할 때 반드시 고려해야 할 아키텍처, 구현 코드(High-level), 보안·컴플라이언스 포인트를 단계별로 정리했다. 매일 엑셀 반복 작업에 시달리던 실무자 A씨, AI 서비스 도입을 고민하는 기획자 B씨의 사례를 통해 실제 현업 적용 시 발생하는 장애 포인트와 해결법도 함께 제시한다.
Salesforce Flow와 LLM 연결: 실무 도입 첫걸음
Salesforce Flow를 LLM과 연동하면 사례 기반 답변 자동완성, 계약 초안 생성, 영업 이메일 초안 자동작성 등 업무 자동화의 폭이 넓어진다. 핵심은 ‘데이터 흐름’과 ‘보안 경계’를 명확히 설계하는 것.
기본 아키텍처: Flow(Trigger) → Middleware/API Gateway(인증·로깅·토큰관리) → LLM API → Flow(후속 액션). Middleware는 데이터 검증, PII(개인식별정보) 마스킹, 요청/응답 로깅, 재시도/타임아웃 정책을 담당해야 한다.
실무자 A씨 사례: A씨는 매주 수작업으로 200건의 영업 리포트를 수집해 요약했는데, Flow + LLM 연동으로 ‘새 리드가 생성될 때 요약 이메일 초안 자동 생성’으로 프로세스를 바꿨다. 초기 실패 원인은 민감데이터(전화번호·계약금액)를 그대로 전송한 점. 이를 계기로 마스킹·토큰화 정책을 도입해 컴플라이언스 문제를 해결했다.

기획자 B씨 사례: B씨는 고객 문의 자동응답을 도입하려 했지만, LLM의 ‘hallucination’으로 잘못된 정책 정보를 제공하는 문제가 발생했다. 해결책은 RAG(검색 기반 보강) 패턴을 도입해 사내 문서(정책·제품정보)를 벡터DB로 연결하고 LLM 응답에 근거 문서 URL을 함께 반환하도록 한 것이다.
Salesforce Flow LLM 연동 시 고려해야 할 핵심 성능·비용 비교
다음 표는 Flow와 연동할 때 자주 고려되는 옵션별(공용 LLM vs 클라우드 관리형 vs 온프레미스) 성능 및 비용의 실무 비교이다. 수치는 일반적인 실무 환경을 가정한 추정치이며, 실제 비용은 계약 조건과 사용량에 따라 달라진다.
| 옵션 | 응답 지연(평균) | 비용(1000 토큰 기준, 예시) | 통합 난이도 | 추천 사용 사례 |
|---|---|---|---|---|
| OpenAI (GPT-4o 계열) | 150–400 ms | $0.02–$0.20 | 중 | 고품질 텍스트 생성, 컨텍스트가 큰 대화형 응답 |
| Azure OpenAI (관리형) | 200–450 ms | $0.025–$0.22 | 중 | 엔터프라이즈 보안·AAD 연동 필요 환경 |
| 온프레미스 LLM (파인튜닝/LLM 서빙) | 100–600 ms (인프라 따라 상이) | 설정 비용+운영비 (대규모시 유리) | 높음 | 규제·데이터 주권 요구, 지속적 대량 호출 |
💡 인공지능 인사이드 팁: Flow에서 LLM 결과를 직접 DB에 쓰기 전에 ‘검증 스텝’을 Flow 내에 배치하고, 자동화 수준별(자동·검토 후 반영)로 롤아웃해 리스크를 단계적으로 낮춰라.

엔지니어링 관점의 권장 설계(전문가 제언)
인공지능 인사이트 에디토리얼 팀의 권고 설계는 다음의 구성요소를 권장한다.
- 인증·인가: OAuth2 + JWT (Salesforce에서 발급한 토큰과 Middleware 간 상호 인증)
- 입/출력 스키마 검증: JSON Schema를 사용해 Flow에서 전송하는 입력을 사전에 검증
- 감사와 추적: 모든 LLM 호출에 request_id를 부여해 Salesforce Audit Trail 및 외부 로깅 시스템에 보관
- 비상 롤백: LLM 응답 이상 감지 시 ‘휴먼 검토 큐’로 플로우 전환
추가적으로, 대화형 Flow에서 컨텍스트 길이가 길어질 경우 토큰 비용이 급증하므로 ‘핵심 컨텍스트만 전송’하는 요약 레이어를 도입하라. 또한 민감정보는 전송 전에 마스킹 또는 허브에서 토큰화해 전송해야 한다.
아키텍처 예시(간단): Salesforce Flow → Platform Event → Middleware (Worker Pool) → LLM API → Verification Service → Salesforce Update/Chatter Post
구현 체크리스트(요약): 인증·토큰 관리, 스로틀링·재시도, 로깅(요청·응답), PII 마스킹, 비용 모니터링, 테스트 데이터셋 기반 평가
배포 전·운영 중 반드시 확인해야 할 위험요소와 주의점
Flow와 LLM 연동 시 자주 발생하는 문제와 권장 대응을 정리한다.
- 데이터 유출 위험: PII가 LLM 공급자 로그에 남지 않도록 계약·설정 검토(데이터 삭제 옵션 또는 고객 관리형 키 사용 권장).
- 응답 품질 문제: RAG 패턴 또는 결과 검증(엔티티 체크, 도메인 규칙 기반 필터)을 반드시 도입.
- 성능·비용 폭증: 샘플 기반 토큰 예측과 스로틀링 설정, 비용 알림(예: 하루/주 단위 한도) 설정.
- 컴플라이언스 감사: 모든 요청·응답에 메타데이터(요청자 ID, 목적, 보존기간)를 기록해 보관.
실무 팁: LLM에 전달할 텍스트는 ‘동적 프롬프트 템플릿’으로 관리하라. 템플릿 버전 관리(예: Git)와 변경 승인 프로세스가 있어야 운영 중 의도치 않은 출력 변화에 대응할 수 있다.
💡 인공지능 인사이드 팁: PoC 단계에서는 비용/품질 지표(응답 정확도, 토큰당 비용, 평균응답시간)를 최소 2주간 수집해 정량적 판단을 내리도록 하라. 애드혹 판단은 위험하다.
참고: 공식 문서와 정책 가이드를 사전에 확인해 연동 설계에서 놓치기 쉬운 규정(데이터 저장·로그 보관, 고객 동의 등)을 반영해야 한다.
마지막 체크리스트(간단): 1) 인증·로깅·마스킹 2) 비용·성능 모니터링 3) 검증·롤백 4) 사용자 교육 및 변경관리







