Found 69 repositories(showing 30)
minhhungit
docker-compose for mongodb cluster sharded with replication
senssei
Docker compose config for mongodb cluster
jfollenfant
MongoDB sharded cluster from docker-compose stack
strpc
Makefile with docker-compose's for development. Run environment ClickHouse, MongoDB, MySQL, PostgreSQL, Redis(Basic + Cluster), RabbitMQ, Kafka, NATS(Basic + Cluster), FTP-server, S3(Minio), Flower, http-server in one command.
sisteming
Tools to orchestrate a MongoDB cluster by deploying it on a Docker Swarm cluster, using docker-machine, docker-compose and cgroups on AWS
kayne87
MongoDB Sharded Cluster deployment with Docker Compose
sisteming
Tools to orchestrate a MongoDB cluster by deploying it on a Docker Swarm cluster, using docker-machine, docker-compose and cgroups on AWS
unbtbl
Template for docker compose + MongoDB Cluster
esaddk
Docker-compose for deploying MongoDB Replica Set Cluster
McDefault
A Detailed High available MongoDB Replica (Cluster) on Docker Swarm and compose
nomkhonwaan
Setup MongoDB cluster using Docker Compose
Sample configuration for MongoDB (replication, clustering) and Docker Compose
minghsu0107
A minimal MongoDB sharded cluster using docker-compose.
dirkwinkhaus
Basic sample of using docker compose to run a cluster consisting of a nginx load balancer, two nginx web servers, php-fpm, mariadb, mongodb and redis container. Also the usage of docker files is shown.
JianliZh429
docker-compose for mongodb cluster
loveyandex
No description available
shreekrishnalamichhane
No description available
ericscottmarquez
No description available
MongoDB Cluster Implementation
kenjones-cisco
Run MongoDB Cluster using Docker and Docker Compose
gianni-smdt
MongoDB sharded cluster running in Docker Compose
danqulogy
A local mongodb cluster implementation using docker compose
bondif
Simple MongoDB cluster with 3 nodes using Docker compose
AlessandroVaccarino
A Docker compose script that creates a MongoDB Sharding cluster (3 nodes + 3 conf + 2 mongos), ready to use
SantuQA
This is a test project for User auth (JWT and session based) , MongoDB atlas cluster, Prisma ORM, Docker Compose, File upload local storage, Specific module auth by user etc.
DESCRIÇÃO DA VAGA Buscamos engenheiros de dados que se motivem com tecnologia de ponta e um ambiente com com muita autonomia para testar coisas novas. Somos um time que está sempre se reinventando para arquitetar soluções para para processar, armazenar e prover dados cada vez mais relevantes para todos os nossos produtos e também para nossos clientes. Você participará de um time que estará arquitetando sistemas distribuídos, criando pipelines escaláveis e confiáveis, combinando múltiplas fontes de dados e pensando em arquiteturas de dados escaláveis e otimizando recursos pensando na eficiência da nossa infra. Nossa tecnologia suporta as maiores marcas e varejos do mercado a tomarem decisões estratégicas sobre suas vendas no canal digital - e-commerce - e ajudam a aproximá-los das dos shoppers em campanhas em redes sociais. Responsabilidades: Conhecer e interagir com as diferentes áreas da Lett com o objetivo de ter um conhecimento amplo do negócio e das bases de dados; Desenvolver e implantar arquiteturas e processos que suportem as soluções das demais equipes de forma escalável; Governar, documentar e prover acesso a metadados a todas as equipes; Modelar Data Lakes e Data Warehouse; Pesquisar e trazer abordagens e tecnologias modernas para as soluções de Big Data da empresa; Criar e gerenciar data flows, clusters de processamento e armazenamento de dados em nossa cloud; Propor melhorias, otimizações de baixo nível e novas arquiteturas para os outros times; Democratizar o acesso a dados utilizando ferramentas e desenvolvimento de interfaces (como APIs, ETLs, SQL); e trabalhar diretamente com equipes de produto. REQUISITOS DA VAGA Requisitos: Experiência com Python; Experiência com Docker e docker-compose; Estar muito confortável com ambiente Spark (Pyspark no serviço EMR da AWS ou em Kubernetes); AWS (Elastic Beanstalk, SQS, RDS, Lambda Functions, EC2, EMR, S3, SNS); Vasta experiência com Data Lakes em storage de objetos (AWS S3); Vasta experiência com Google Big Query (modelagem de dados, ELTs, manutenção e governança); Experiência com o conceito de ELT; Experiência com governança e catalogação de dados; Apache Airflow (Implementação de DAGs e deploys do Airflow em formato de workers distribuídos); Data warehouses, data lakes, suas interfaces (engines SQL, processos de ETL, acesso direto a objetos) e sua organização ( particionamento, formas de orientar dados, custo e performance); Estar confortável com SQL, bancos de dados relacionais, bancos orientados a documento e armazenamento de arquivo; Arquiteturas diversas de processamento (filas, jobs, workers, functions... etc); Ferramentas de deploy, versionamento de código e infraestrutura na nuvem; Ser capaz de criar fluxos de execução paralela ou concorrente de processamento, assim como execução distribuída quando aplicável; Saber interagir de forma técnica e não-técnica com outros membros da equipe e com pessoas de outras áreas. Diferenciais: Dremio/Athena/AWS Glue Catalog; Ferramenta DBT (Data Build Tool da Fishtown Analytics); Amundsen; Processos de dados envolvendo CDC (Change Data Capture); Terraform; Prometheus/Grafana; Kubernetes/AWS ECS/AWS EKS; PostgreSQL, MongoDB, ElasticSearch, DynamoDB; Java/Scala; Jenkins; Inglês. BENEFÍCIOS DA VAGA Plano de Saúde; Plano Odontológico; VR; VA; Home Office.
No description available
lonelymj
No description available
anjingjingan
No description available
phuongtt6
No description available