
Gemini CLI + Atlassian MCP 조합으로 SR 생성하기사내 배포 프로세스에서는 별도의 Service Request(SR) 지라 티켓이 필요합니다. 기존에는 작업 티켓의 내용을 수동으로 복사하여 SR 티켓을 생성하는 방식을 사용했는데, 이는 시간 소모적이고 실수가 발생할 수 있는 비효율적인 프로세스였습니다.이러한 문제를 해결하기 위해 기존 작업 티켓을 기반으로 SR 티켓을 자동으로 생성하는 방법을 고민하게 되었습니다. 여러 도구들을 서칭한 결과, Atlassian에서 제공하는 MCP와 Gemini CLI를 조합하여 SR을 생성하는 방법을 공유하려고 합니다.필요한 도구mcp-atlassiangemini-cliGemini CLI 설정Gemini CLI 설정 파일(~/.gemini/setting..

genai로 지라 이슈 리포트 생성하기최근 AI를 활용한 업무 자동화가 주목받고 있습니다. 특히 일상적인 리포트 작성이나 데이터 분석 작업에서 AI의 도움을 받으면 많은 시간을 절약할 수 있습니다.사내에서 n8n을 활용해서 여러 AI Agent를 만들어 보고 싶었지만, 보안 이슈로 아쉽게 꿈을 펼치지 못 했습니다..ㅎㅎ그래서 Python과 Gemini AI를 활용하여 AI Agent 대체품이라도 만들어 보면서 과정을 기록해 보려고 합니다.Intro👉🏼 Gemini API용 Python SDK는 google-generativeai 패키지 설치google-generativeaipip install -q -U google-generativeai👉🏼 프로젝트 루트 디렉토리에 .env 파일을 만들고 API..

정산 데이터, 이제 스트리밍으로 즐기세요! (feat. Kafka streams) 1편에 이어 2편을 진행하겠습니다.5단계. 지급룰 조회 및 세팅이제 필터링된 정산 대상 데이터에 지급룰 정보를 설정할 차례입니다. 지급룰은 API 호출을 통해 조회하는데, 동일한 규칙을 사용하는 데이터에 대해 중복 API 호출을 방지하고 네트워크 통신 비용을 절감하기 위해 지급룰을 별도로 관리하고자 합니다.이러한 요구사항을 해결하기 위해 Redis를 사용할 수도 있지만, 여기서는 Kafka Streams의 상태 저장소를 활용해 보겠습니다. 상태 저장소는 RocksDB와 같은 로컬 저장소를 사용하여 KTable 형태로 키-값 데이터를 관리하며, 변경 로그 토픽을 통해 상태를 복원하여 내결함성을 보장합니다. 이렇게 구성된 상태..

정산 데이터, 이제 스트리밍으로 즐기세요! (feat. Kafka streams)정산 데이터는 실시간으로 처리되지 않고, 매일 새벽 채널별 데이터 양에 따라 비실시간으로 생성되어 처리되고 있는데, 최근 파이프라인 방식으로 데이터를 처리하기 위해 Kafka Streams를 적용하면서, 기존에 비실시간으로 생성되던 정산 데이터를 실시간 스트림으로 생성하는 방안을 고민하게 되었습니다.이 글에서는 기존 Kafka 인프라에서 별도의 클러스터 없이 스트림 처리 애플리케이션을 구축할 수 있는 Kafka Streams의 장점을 소개하고, 정산 데이터 생성 과정에 적용하는 과정을 공유하고자 합니다.Kafka Streams?kafka streams는 kafka 위에서 동작하는 클라이언트 라이브러리로, 실시간 데이터를 스트..

MongoDB ShardingMongoDB Sharding에 대한 빠른 이해를 위해 공식 문서를 간략하게 정리하고자 합니다.Sharding?데이터를 여러 머신에 분산하는 방법MongoDB는 샤딩을 통한 수평적 확장을 지원수평적 확장: 시스템 데이터 세트와 로드를 여러 서버로 나누고 필요에 따라 서버를 추가하여 용량을 늘리는 것Sharded Cluster컬렉션 수준에서 데이터를 샤딩하여 클러스터의 샤드 전체에 컬렉션 데이터를 분산구성 컴포넌트shard: 각 샤드에는 샤드 데이터의 하위 집합이 포함.각 샤드는 복제본 세트로 배포되어야 함Routing with mongos: mongos는 클라이언트 애플리케이션과 샤딩된 클러스터 간의 인터페이스를 제공하는 쿼리 라우터 역할config servers: confi..

MongoDB MCP Server로 데이터 추출해보기지난 시간에 다룬 5분 만에 GitHub MCP Server 구축해서 GitHub 작업 시키기에 이어, 이번에는 MongoDB MCP Server 구축 방법을 소개하려고 합니다.MongoDB MCP Servermongodb-mcp-server 설정 역시 지난번에 다룬 GitHub MCP Server와 유사합니다.다른 MCP 서버와 동일하게 mcp.json 파일에서 MongoDB MCP Server 설정만 추가하면 준비가 완료됩니다.실제 MongoDB 클러스터에 연동{ "mcp": { // MCP 서버의 전체 설정을 담는 객체 "inputs": [], // 입력 소스(예: 파일, 폴더 등)를 지정하는 배열 "servers":..

MCP StartMCP(Model Context Protocol).들어만 보았던 MCP를 이제 직접 사용해 보려고 합니다. 처음에는 진입장벽이 높을 것이라고 생각했지만, 실제로 사용해보니 생각보다 매우 쉽게 AI를 활용할 수 있다는 것을 알게 되었습니다. 그럼 가장 쉽고 빠르게 MCP를 사용해볼 수 있는 GitHub MCP를 함께 살펴보겠습니다!MCPMCP(Model Context Protocol) ⁉️MCP는 다양한 인공지능 모델과 도구, 그리고 개발 환경 간의 상호 운용성을 높이기 위해 고안된 표준 프로토콜입니다. MCP를 통해 개발자는 AI 모델, 플러그인, 외부 서비스, 그리고 IDE(예: VS Code) 등 다양한 컴포넌트들을 손쉽게 연결하고 통합할 수 있습니다.주요 특징표준화된 인터페이스: ..

⚠️ 본문에서는 각 개념에 대한 자세한 내용을 다루지 않고, 어느 정도의 이해도가 있다는 전제로 큰 진행 과정만을 다루고 있습니다.따라서 자세한 내용은 각 내용에 첨부된 글을 참고해 주세요.🙇🏻♂️부족한 내용은 댓글로 남겨주시면 보완하도록 하겠습니다.다루는 내용JIB를 활용한 컨테이너 이미지 빌드/푸시AWS EC2무중단 배포모니터링도메인 등록SSL 인증서이해가 필요한 개념JIBAWS EC2DockerNginxprometheusGrafanaJIB를 활용한 컨테이너 이미지 빌드/푸시일반적으로 도커 허브에 이미지를 빌드하기 위해 Docker, Dockerfile이 필요한데Gradle, Maven에서 Jib plugin을 활용해 간편하게 이미지를 빌드하고 푸시하는 방법을 알아 보려고 합니다.JIB 설정sp..