Pay for stablecoins스테이블 코인 결제 시스템스테이블 코인은 단순히 '가격이 안정적인 코인'을 넘어, 블록체인 기반의 효율적인 가치 이전 수단으로싸 금융 시스템에 새로운 지평을 열고 있습니다. 특히, 기존의 복잡하고 느린 국경 간 결제 방식을 혁신할 잠재력을 가지고 있습니다.1. 스테이블 코인 구매 단계스테이블 코인을 얻는 과정은 일반적인 암호화폐 거래소 또는 분산형 거래소(DEX)를 통해 이루어집니다.구매 방식설명중앙화 거래소 (CEX)사용자가 법정화폐(KRW, USD 등)를 입금하고, 이를 이용해 USDT, USDC와 같은 스테이블 코인을 시장 가격으로 매수. 이 과정은 KYC(신원 확인) 및 AML(자금세탁 방지) 규제를 준수분산형 거래소 (DEX)이미 다른 암호화폐(ETH, BTC ..
Stablecoin스테이블 코인에 대한 관심이 높아지고 있는 만큼, 스테이블 코인의 개념을 잡아보려고 합니다.Stablecoin? 🪙스테이블 코인은 말 그대로 '가치가 안정적인(Stable) 암호화폐(Coin)'비트코인이나 이더리움 같은 일반적인 암호화폐는 가격 변동이 매우 크기 때문에, 실생활에서 결제 수단으로 사용하거나 가치를 저장하기엔 불안정 ➜ 이러한 문제를 해결하기 위해 스테이블 코인이 등장미국 달러나 대한민국 원화같은 실제 화폐에 그 가치를 고정(pegging) 하여, 1코인이 항상 1달러 또는 1000원의 가치를 갖도록 설계 ➜ 쉽게 말해, '디지털 화폐'🙋🏼♂️ 스테이블 코인은 왜 필요할까?편리한 거래: 전 세계 어디든 인터넷만 되면 은행보다 훨씬 빠르고 저렴한 수수료로 돈을 송금특..
Gemini CLI + Atlassian MCP 조합으로 SR 생성하기사내 배포 프로세스에서는 별도의 Service Request(SR) 지라 티켓이 필요합니다. 기존에는 작업 티켓의 내용을 수동으로 복사하여 SR 티켓을 생성하는 방식을 사용했는데, 이는 시간 소모적이고 실수가 발생할 수 있는 비효율적인 프로세스였습니다.이러한 문제를 해결하기 위해 기존 작업 티켓을 기반으로 SR 티켓을 자동으로 생성하는 방법을 고민하게 되었습니다. 여러 도구들을 서칭한 결과, Atlassian에서 제공하는 MCP와 Gemini CLI를 조합하여 SR을 생성하는 방법을 공유하려고 합니다.필요한 도구mcp-atlassiangemini-cliGemini CLI 설정Gemini CLI 설정 파일(~/.gemini/setting..
genai로 지라 이슈 리포트 생성하기최근 AI를 활용한 업무 자동화가 주목받고 있습니다. 특히 일상적인 리포트 작성이나 데이터 분석 작업에서 AI의 도움을 받으면 많은 시간을 절약할 수 있습니다.사내에서 n8n을 활용해서 여러 AI Agent를 만들어 보고 싶었지만, 보안 이슈로 아쉽게 꿈을 펼치지 못 했습니다..ㅎㅎ그래서 Python과 Gemini AI를 활용하여 AI Agent 대체품이라도 만들어 보면서 과정을 기록해 보려고 합니다.Intro👉🏼 Gemini API용 Python SDK는 google-generativeai 패키지 설치google-generativeaipip install -q -U google-generativeai👉🏼 프로젝트 루트 디렉토리에 .env 파일을 만들고 API..
정산 데이터, 이제 스트리밍으로 즐기세요! (feat. Kafka streams) 1편에 이어 2편을 진행하겠습니다.5단계. 지급룰 조회 및 세팅이제 필터링된 정산 대상 데이터에 지급룰 정보를 설정할 차례입니다. 지급룰은 API 호출을 통해 조회하는데, 동일한 규칙을 사용하는 데이터에 대해 중복 API 호출을 방지하고 네트워크 통신 비용을 절감하기 위해 지급룰을 별도로 관리하고자 합니다.이러한 요구사항을 해결하기 위해 Redis를 사용할 수도 있지만, 여기서는 Kafka Streams의 상태 저장소를 활용해 보겠습니다. 상태 저장소는 RocksDB와 같은 로컬 저장소를 사용하여 KTable 형태로 키-값 데이터를 관리하며, 변경 로그 토픽을 통해 상태를 복원하여 내결함성을 보장합니다. 이렇게 구성된 상태..
정산 데이터, 이제 스트리밍으로 즐기세요! (feat. Kafka streams)정산 데이터는 실시간으로 처리되지 않고, 매일 새벽 채널별 데이터 양에 따라 비실시간으로 생성되어 처리되고 있는데, 최근 파이프라인 방식으로 데이터를 처리하기 위해 Kafka Streams를 적용하면서, 기존에 비실시간으로 생성되던 정산 데이터를 실시간 스트림으로 생성하는 방안을 고민하게 되었습니다.이 글에서는 기존 Kafka 인프라에서 별도의 클러스터 없이 스트림 처리 애플리케이션을 구축할 수 있는 Kafka Streams의 장점을 소개하고, 정산 데이터 생성 과정에 적용하는 과정을 공유하고자 합니다.Kafka Streams?kafka streams는 kafka 위에서 동작하는 클라이언트 라이브러리로, 실시간 데이터를 스트..
MongoDB ShardingMongoDB Sharding에 대한 빠른 이해를 위해 공식 문서를 간략하게 정리하고자 합니다.Sharding?데이터를 여러 머신에 분산하는 방법MongoDB는 샤딩을 통한 수평적 확장을 지원수평적 확장: 시스템 데이터 세트와 로드를 여러 서버로 나누고 필요에 따라 서버를 추가하여 용량을 늘리는 것Sharded Cluster컬렉션 수준에서 데이터를 샤딩하여 클러스터의 샤드 전체에 컬렉션 데이터를 분산구성 컴포넌트shard: 각 샤드에는 샤드 데이터의 하위 집합이 포함.각 샤드는 복제본 세트로 배포되어야 함Routing with mongos: mongos는 클라이언트 애플리케이션과 샤딩된 클러스터 간의 인터페이스를 제공하는 쿼리 라우터 역할config servers: confi..
MongoDB MCP Server로 데이터 추출해보기지난 시간에 다룬 5분 만에 GitHub MCP Server 구축해서 GitHub 작업 시키기에 이어, 이번에는 MongoDB MCP Server 구축 방법을 소개하려고 합니다.MongoDB MCP Servermongodb-mcp-server 설정 역시 지난번에 다룬 GitHub MCP Server와 유사합니다.다른 MCP 서버와 동일하게 mcp.json 파일에서 MongoDB MCP Server 설정만 추가하면 준비가 완료됩니다.실제 MongoDB 클러스터에 연동{ "mcp": { // MCP 서버의 전체 설정을 담는 객체 "inputs": [], // 입력 소스(예: 파일, 폴더 등)를 지정하는 배열 "servers":..
