Spark + Docker Swarm: Processamento distribuído com mínimo esforço
Apache Spark é a tecnologia do momento para processamento de workloads distribuídos. Sua implantação, no entanto, é um tanto chata se você quer subir a ferramenta utilizando contêineres e sua plataforma não é o Kubernetes (o orquestrador de contêineres modinha). Em mais uma das minhas aventuras pouco saudáveis pra melhorar algo do meu trabalho no meu tempo livre, entrei de cabeça em um projeto para implantar o Spark standalone em Docker Swarm.