DevOps/Kafka

    [kafka] kafka connect를 활용한 다중서버 db 동기화 문제 해결

    [kafka] kafka connect를 활용한 다중서버 db 동기화 문제 해결

    * 문제주문을 넣으면 round robin으로 data가 각각의 db에 나누어 저장되는 문제 * 해결설계order-service의 db를 mariadb로 변경datasource: driver-class-name: org.mariadb.jdbc.Driver url: jdbc:mariadb://localhost:3307/mydb # MariaDB URL username: root password: qwertykafka에서 사용가능한 형식의 data로 만들어 줘야 한다.생성되는 json{ "schema": { "type": "struct", "fields": [ { "type": "string", "optional": true, "field": "order_id" }, ..

    [kafka] 데이터 동기화 테스트, 스프링 - 도커의 kafka 연결하기

    [kafka] 데이터 동기화 테스트, 스프링 - 도커의 kafka 연결하기

    * 스프링 - 도커의 kafka 연결하기카프카 docker를 아래와 같이 수정필요kafka: image: wurstmeister/kafka ports: - "9092:9092" environment: KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_HOST:PLAINTEXT KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:29092,PLAINTEXT_HOST://0.0.0.0:9092 KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:29092,PLAINTEXT_HOST://localhost:9092이렇게 바꾸니까 kafka-ui,..