Arquivos do Blog

Boletim Semanal Azure

Olá pessoal segue a versão PTBR do Boletim Semanal #336

Espero que vocês leiam.

Traduzido para Português Brasil

Azure Weekly #336 – 15 de agosto de 2021

Edição do Boletim Semanal Azure #336

alimentado por endjin

Bem-vindo ao Problema 336 ot Azure Weekly! Esta semana, a equipe de atualizações anunciou a recuperação global de desastres via Azure Site Recovery. Deborah Chen anunciou que as chaves de partição estão agora disponíveis em pré-visualização privada para a API do Azure Cosmos DB Core (SQL),o que significa que o dimensionamento para aplicações SaaS ficou muito mais fácil. Tobi Otolorin anuncia que o Azure Firewall Premium está agora em disponibilidade geral

Anna Hoffman fornece um resumo de todos os Azure SQL, incluindo atualizações de produtos, vídeos e blogs. Goran Vuksic passa pela detecção da ocupação da sala com o Azure Percept. Daniela Encarnacion Holguin dicussing ancorado com Âncoras Espaciais Azure e Âncoras de Objeto Azure. Existem dois bons posts de blog relacionados ao Dapr; a primeira pergunta Por que precisamos do Dapr?  AzureFunBytes cobre um ntro para BicepLang com Alex Frankel. Vale a pena assistir – O Bicep é uma melhoria significativa de produtividade sobre os modelos ARM para Infraestrutura como Código. 

E, finalmente, eu queria terminar esta edição dando um adeus muito carinhoso a Carmel Eve. Carmel ingressou pela primeira vez na Endjin em 2016 como estagiária, e entrou em nosso programa de aprendizagem dois anos depois depois de se formar e tirar um ano para viajar. Em 2019, ela ganhou o Prêmio de Engenheira Aprendiz do Ano no Rising Star, e também se tornou embaixadora da STEM,com o objetivo de promover e apoiar mulheres que ingressaram na indústria de tecnologia em sua área local. Para completar o ano de folga, ela treinou para, e depois subiu ao Acampamento Base do Everest (usando o Azure para ajudá-la a treinar, é claro!). Um ano depois de ir para a NDC como participante, ela estava no palco do NDC London dando uma palestra sobre o combate à pesca ilegal com machine learning e aZure,compartilhando seus pensamentos sobre o que faz uma boa API como API Specification Conference e mostrou como construir uma solução de dados segura usando a Azure Data Lake Store na SQLBits. Carmel compartilhou 5 maneiras de se preparar para falar em público para ajudar outras pessoas a seguir seus passos. Durante a pandemia Carmel compartilhou suas próprias dicas sobre como gerenciar a saúde mental e o trabalho remoto e gerenciar efetivamente a capacidade mental,esses blogs eram incrivelmente populares e destacavam problemas comuns de saúde mental em nossa indústria. Este ano ela se tornou instrutora de aprendizagem do LinkedIn e publicou seu primeiro curso Dicas de Exame AZ-204: Desenvolvendo Soluções para o Microsoft Azure. Ela ajudou a lançar o Reaqtor, criando um vídeo 101 demonstrando como o Reaqtor combina reatividade com processamento confiável de dados. Foi muito alegre ver Carmel crescer de um graduado para um profissional experiente nos últimos 5 anos. Desejamos a ela boa sorte com suas viagens pela Europa e América do Sul nos próximos anos, e esperamos cruzar caminhos novamente no futuro!

Se você tiver algum conteúdo que queira contribuir para a newsletter, por favor, twitte @AzureWeekly ou envie um e-mail para AzureWeekly@endjin.com

Interessado em Power BI? Inscreva-se em nossa newsletter irmã Power BI Weekly para receber todas as notícias do Power BI da semana. 

@HowardvRooijen | @endjin

AI + Machine Learning

Cobertura: Detector de anomalias, Serviço Azure Bot, Aprendizado de Máquina Azure, Azure Open Datasets, APIs de Bing, Serviços Cognitivos, Visão computacional, Moderador de Conteúdo, Visão Personalizada, Máquinas Virtuais de Ciência de Dados, Face, Reconhecimento de Formulário, Leitor Imersivo, Reconhecimento de Tinta, Entendimento de Linguagem (LUIS), Estúdio de Aprendizagem de Máquinas, Genômica Microsoft, ML.NET, Personalização, Projeto Cortex, Criador de QnA, Reconhecimento de Voz, Fala-a-Texto, Tradução de Fala, Análise de Texto, Texto para Fala, Discurso do Tradutor, Tradutor de Texto 

Analytics

Cobertura: Apache Spark for HDInsight, Apache Storm for HDInsight, Azure Analysis Services, Azure Data Explorer, Azure Data Share, Azure Databricks, Azure Stream Analytics, Azure Synapse Analytics, Data Catalog, Data Factory, Data Lake Analytics, Event Hubs, HDInsight, .NET for Apache Spark, R Server for HDInsight, Azure Purview 

  • Sem conteúdo esta semana

Computação

Cobertura: Azure CycleCloud, Azure Dedicated Host, Azure Functions, Azure VMware Solution by CloudSimple, Batch, Cloud Services, Linux Virtual Machines, SAP HANA on Azure Large Instances, Service Fabric, Virtual Machines, Virtual Machine Scale Sets 

Container

Cobertura: Azure Kubernetes Service (AKS), Azure Red Hat OpenShift, CNAB, CNCF, Container Instances, Container Registry, Porter, WSL, Web App for Containers 

Bancos de dados

Cobertura: Azure Cosmos DB, Banco de Dados Azure para MariaDB, Banco de Dados Azure para MySQL, Banco de Dados Azure para PostgreSQL, Banco de Dados Azure SQL, Azure SQL Database Edge, Azure Cache for Redis, SQL Data Warehouse, SQL Server em máquinas virtuais, SqL Server Stretch Database, Armazenamento de tabela 

Ferramentas para desenvolvedores

Cobertura: Configuração de aplicativos, Serviços de Laboratório Azure, CLIs, Integrações de ferramentas de desenvolvedores, SDKs, Visual Studio, Visual Studio Code, Visual Studio Online 

DevOps

Cobertura: Artefatos Azure, Placas Azure, Azure DevOps, Azure Pipelines, Azure Repos, Azure Test Plans, Azure DevTest Labs, Integrações de ferramentas DevOps 

Híbrido

Cobertura: Arco Azure, Pilha de Azure 

Identidade

Cobertura: Azure Active Directory (AD), Azure Active Directory B2C, Azure Active Directory Domain Services 

Integração

Cobertura: Api Azure para FHIR, Grade de Eventos, Aplicativos Lógicos, Ônibus de Serviço 

Internet das Coisas

Cobertura: Azure Digital Twins, Azure IoT Central, Azure IoT Edge, Azure IoT Hub, aceleradores de soluções Azure IoT, Mapas Azure, Esfera Azure, Insights da Série Azure, IoT DevKit, WildernessLabs, Windows 10 IoT Core Services 

Aprendizagem

Cobertura: Certificações Microsoft, Certificações Azure, Caminhos de Aprendizagem da Microsoft, Informações sobre Caminhos de Certificação 

Gestão e Governança

Cobertura: Automação, Azure Advisor, Azure Backup, Azure Blueprints, Azure Lighthouse, Azure Managed Applications, Azure mobile app, Azure Monitor, Azure Policy, Azure Resource Manager, Azure Service Health, Azure Site Recovery, Cloud Shell, Cost Management, Portal Microsoft Azure, Scheduler, Azure Purview 

Mídia

Cobertura: Azure Media Player, Proteção de Conteúdo, Codificação, Transmissão ao vivo e sob demanda, Análise de Mídia, Serviços de Mídia, Indexador de Vídeo 

Migração

Cobertura: Serviço de migração de banco de dados Azure, Migração do Azure, Caixa de Dados 

Mobile

Cobertura: App Service (Mobile), aplicativos móveis, centros de notificação, visual studio app center, Xamarin 

  • Sem conteúdo esta semana

Rede

Cobertura: Portal de aplicativos, Azure Bastion, Azure DNS, Azure ExpressRoute, Azure Firewall, Azure Firewall Manager, Azure Front Door, Azure Internet Analyzer, Azure Private Link, Content Delivery Network, Load Balancer, Network Watcher, Traffic Manager, Virtual NETWORK, Virtual WAN, VPN Gateway, Firewall de Aplicativos Web 

Segurança

Cobertura: Proteção Azure DDoS, Proteção de Informações Azure, Azure Sentinel, Key Vault, Security Center 

Armazenamento

Cobertura: Armazenamento de arquivo, Avere vFXT para Azure, Azure Data Lake Store, Azure FXT Edge Filer, Azure HPC Cache, Arquivos Azure NetApp, Blob Storage, Armazenamento em Disco, Armazenamento de Arquivos, Discos Gerenciados, Armazenamento de Filas, Contas de Armazenamento, Explorador de Armazenamento, StorSimple 

Serviços Web

Cobertura: Aplicativos de API, Gerenciamento de API, App Service (Web), Pesquisa Cognitiva do Azure, Serviço Azure SignalR, Azure Spring Cloud, aplicativos da Web 

Windows Virtual Desktop

Cobertura: Windows Virtual Desktop 

  • Sem conteúdo esta semana

Liderança do pensamento de endjin

Links úteis

  • Inventário de Recursos Azure – O Inventário de Recursos do Azure é um poderoso script escrito no PowerShell para gerar um relatório Excel de qualquer Ambiente Azure que você tenha lido acesso
  • Modelos Azure Quickstart – Saiba como implantar no Azure usando modelos ARM. Mais de 850 exemplos neste repo.
  • Azure CNAB Quickstarts Library – Você pode implantar na Nuvem, no Prem e no Edge usando CNAB & Porter. Esta biblioteca fornece uma série de modelos de partida rápida para ajudá-lo a começar, rápido!
  • Power BI Weekly – Interessado em Power BI? Inscreva-se em nossa newsletter irmã Power BI Weekly para receber todas as notícias do Power BI da semana.
  • Azure Resources – Uma fantástica coleção de recursos contidos neste repo. Emita um RP se você tiver recursos para compartilhar. Dirigido pelo MVP do Azure Gregor Suttie.
  • Azure Charts – Azure Charts é um conjunto de gráficos auto-reconstruídos para mantê-lo atualizado sobre alterações do Azure, notícias, estatísticas. Atualizações públicas, canais RSS e páginas da Web são usados como fontes de dados
  • O Guia do Desenvolvedor para o Microsoft Azure (2ª Edição) – ebook da Microsoft mostrando abordagens arquitetônicas e padrões comuns de design que você enfrenta ao construir aplicativos modernos.
  • Azure Virtual Datacenter – ebook da Microsoft destacando uma abordagem de isolamento, segurança e confiança na nuvem da Microsoft.
  • Segurança Cibernética Desmistificada – ebook da Microsoft descrevendo como manter sua organização segura.
  • O pôster do Microsoft What is Azure – uma visão geral visual dos serviços e recursos do Azure.
  • Microsoft Azure Essentials: Fundamentals of Azure – um ebook gratuito da Microsoft Press, por Michael S. Collier e Robin E. Shahan.
  • Data Science in the Cloud com Microsoft Azure Machine Learning e R – um ebook gratuito sobre Aprendizado de Máquina Azure, por Stephen F. Elston.
  • Proteção de dados no Microsoft Azure – um whitepaper que descreve os vários mecanismos que você pode aproveitar para gerenciar dados confidenciais na plataforma Azure.
  • Azure Architecture Center – orientação da equipe patterns & practices que abrange API Design, implementação de API, Autoscaling, Trabalhos de Fundo, CDN, Cache, Particionamento de Dados, Monitoramento e Diagnósticos, Retry, Escalabilidade e Disponibilidade.
  • Referência do Arquiteto Azure – se você é um arquiteto responsável pela construção de um aplicativo no Azure, ou está tentando descobrir como você pode migrar um aplicativo e precisa cavar fundo na carga de trabalho, custo, segurança, capacidade, disponibilidade, implantação e modelagem operacional este recurso inestimável deve ser sua primeira parada. Um projeto de código aberto, com contribuições de vários arquitetos experientes, reúne dados de muitas referências diferentes em um guia único e útil que é constantemente atualizado pela comunidade.
  • Guia de design de armazenamento de tabelas do Azure – um guia da equipe de armazenamento.
  • Diretrizes de implementação de serviços de infraestrutura do Azure – principais diretrizes de projeto e implementação para a implantação de uma carga de trabalho de TI em serviços de infraestrutura do Azure.
  • Azure Speed Test – uma ferramenta web simples que mede a latência entre você e o Azure Datacenters para sugerir o que pode ser mais rápido para sua localização.
  • Azure Websites Cheatsheet – tudo o que você precisa saber sobre configuração e gerenciamento de sites do Azure em uma única página.
  • Data Migration Assistant – permite que você atualize para uma plataforma de dados moderna detectando problemas de compatibilidade que podem impactar a funcionalidade do banco de dados em sua nova versão do SQL Server e do Azure SQL Database. Ele recomenda melhorias de desempenho e confiabilidade para o ambiente de destino.
  • Calculadora Azure SQL DTU – uma ferramenta para ajudá-lo a determinar o número de DTUs para o seu banco de dados SQL Server existente, bem como uma recomendação do nível mínimo de desempenho e nível de serviço que você precisa antes de migrar para o Banco de Dados SQL do Azure.
  • Microsoft Azure Symbol/Icon Set – um conjunto de formas Visio e PowerPoint para uso em diagramas/apresentações de arquitetura.
  • Service Bus Explorer – uma ferramenta gratuita e de código aberto para gerenciar e explorar a Azure Service Bus (incluindo Event Hubs).
  • Melhores práticas para projetar modelos de gerente de recursos do Azure – orientação baseada no whitepaper ‘World Class ARM Templates Considerations and Proven Practices’.
  • Microsoft Cloud Networking for Enterprise Architects – um guia para download para a rede Azure, abrangendo tópicos como migração em nuvem e rede para serviços PaaS e SaaS
  • Whitepapers for Power BI – numerosos whitepapers que variam vários tópicos power BI
  • Azure Serverless Computing Cookbook – ebook da Microsoft, incluindo casos de uso, passos práticos e tutoriais para configurar rapidamente seus próprios ambientes sem servidor.
  • Resumo Executivo: Enterprise Cloud Strategy – resumo executivo do e-book de 140 páginas da Microsoft. Conheça o básico da adoção de uma estratégia de computação em nuvem para sua empresa.
  • Migrando o SQL Server para a instância gerenciada do banco de dados Azure SQL — um guia passo a passo – da Microsoft fornecendo a divisão de etapas táticas para implementar uma migração rápida, simples e de baixo impacto de dados com a instância gerenciada do banco de dados Azure SQL.
  • Azure Backup Deep Dive Whitepaper – um mergulho profundo por Adin Ermie e Charbel Nemnom descrevendo Azure Backup
  • Azure Stack: Uma extensão do Azure – whitepaper da Microsoft detalhando como você pode estender o Azure Stack para disponibilizar serviços do Azure no local
  • Guia de Estratégia e Implementação do Azure – Para usuários do Azure – ebook da Microsoft delineando princípios recomendados de arquitetura geral e design em nuvem, DevOps, abordagens para gerenciamento de serviços e governança geral.
  • Azure Data Factory: SSIS in the Cloud – eBook da Microsoft explicando por que você gostaria de migrar suas cargas de trabalho SSIS existentes para a Azure Data Factory e abordando considerações e preocupações comuns. Inclui detalhes técnicos da criação de um Azure-SSIS IR e, em seguida, passo-a-passo de como carregar, executar e monitorar seus pacotes através da Fábrica de Dados Azure
  • Sistemas de Arquivos Virtuais Paralelos no Microsoft Azure – ebook da Microsoft documentando os resultados de uma série de testes de desempenho no Azure para ver como brilho escalável, GlusterFS e BeeGFS são
  • Construa e implante um aplicativo de vários contêineres no Azure Service Fabric – ebook da Microsoft que mostra como criar um aplicativo de amostra de vários contêineres usando ASP.NET Core e Docker e implantá-lo em um cluster Azure Service Fabric.
  • Azure ebook/whitepaper resources – White papers, relatórios de analistas e e-books landing page com uma abundância de recursos extras.
  • Farmer – Este é um DSL para criação de modelos ARM – “Facilitando as implantações do Azure repetível”!

Visual Studio, Deploy Máquina Virtual Azure

Para quem está iniciando ou está utilizando plataforma de nuvem como o Azure, quer ser ágil e iniciar a cultura DEVOPS, o visual studio é a ferramenta aliada a infra “AGIL”.

Hoje quando falamos de agilizar processos e melhorar tempo de projeto o Visual Atudio será seu amigo de notebook ou Desktop.

Irei mostrar um passo a passo para um deploy de máquina virtual no Azure.

PRIMEIRO PASSO.


Iremos abrir a ferramenta no menu Conectar a uma subscrição do Azure.

É bem simples, é a mesma conta do Azure

Conecte na conta do Azure

Após a sua conexão ele exibe suas assinaturas e os serviços que o Azure tem conectividade através do Azure. A caixa do lado esquerdo mostra os serviços do Azure e do lado direito está mostrando as assinaturas do Azure e as regiões que você pode criar os serviços.

Como estamos a criar uma infra ágil vamos realizar um deploy de máquina virtual.

Vamos clicar com botão direito do mouse em Virtual Machines e ir em create Virtual Machines.

Vamos escolher a subscrição que iremos usar.

A escolha do sistema operacional é bem simples e bem didático. Escolha e clique em NEXT.

O próximo passo é o mesmo passo que temos para criação do nome da máquina, usuário e senha.

Este passo iremos criar o serviço de Cloud Service.

Cloud Services criado iremos para o próximo passo. Lembrando que este Deploy esta baseado em ASM.

Como estamos criando baseado em ASM este passo irá mostrar as portas que serão liberados para acesso. No caso Powershell remoto e RDS.

Aguardo o deploy ser concluído.

Deploy concluído e maquina pronta para ser acessada.

Veja no Visual studio que a maquina está em ASM ela é diferente das ARMS.

Pelo próprio Visual Studio podemos conectar via RDP.

Acesse com usuário e senha criados.

Pronto, sua maquina criada e provisionada através do visual studio.

O tempo de criação é bem mais rápido do que no Tenant.

Então Visual Studio aprovado para quem está adotando cultura DEVOPS e melhorar tempo de projeto.

Veja no Azure que a máquina foi criada com êxito.

Próximo post máquina virtual em modo ARM.

Até a próxima

Transferências de dados com AZCOPY para Azure

Olá pessoal

Hoje irei demonstrar a vocês de uma forma fácil e barata a transferência de dados através do AZCOPY.

Se você já tem a familiaridade do XCOPY o AZCOPY é semelhante.

Além de você ter como ferramenta de transferência o Azure File Explorer ou o REDGATE Azure explorer o Azcopy é uma forma barata ou para automação através do Windows com Schedule.

O AzCopy pode ser baixado deste link ( http://aka.ms/downloadazcopy ). Para instalar, basta seguir as instruções de instalação.

A instalação é bem tranquila.

Depois de baixar siga com NEXT

Aceite os termos do contrato e siga com NEXT.

Escolha o diretório onde o software ficará armazenado e siga com NEXT

Continue com o procedimento e clique em INSTALL

Finalize a instalação com FINISH para continuarmos com o procedimento.

O modelo de conexão que iremos realizar é este abaixo.

@echo off

cd C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy

AzCopy /Source:C:\myFolder /Dest:https://myazureaccount.windows.net/myfileshare1 /DestKey:mydestKey /S /Y

Vejamos cada componente do comando AzCopy em detalhes:

  • / Source: – Especifica a origem do arquivo. Essa fonte pode ser armazenamento de arquivos regular ou qualquer uma das opções de armazenamento do Microsoft Azure . Neste caso, estamos especificando uma pasta em nossa unidade C.
  • / Dest: – Especifica o destino do comando. Se o destino for uma das opções de armazenamento do Microsoft Azure, será necessário especificar uma chave de destino para acessar o armazenamento.
  • / DestKey – Especifica a chave da conta de armazenamento para a chave de destino
  • / S – Define o modo para recursivo, o que fará com que o AzCopy copie todos os blob ou arquivos.
  • / Y – Confirma que o comando será feito do AzCopy

Agora você precisa criar um storage acount no Azure.

Acessamos o portal e criamos um storage como General purpose que o foco é transferência de arquivos como OBJETO em geral.

Lembrando que temos 4 tipos de arquivos como BLOCO, ARQUIVOS, TABELAS e FILAS.

Saiba mais aqui sobre ARMAZENAMENTO em https://docs.microsoft.com/pt-br/azure/storage/storage-introduction

Storage criado, vamos criar a pasta que vai receber os dados dentro de FILES. Iremos clicar em FILES e criar a pasta.

Clicamos em File Share e criamos a pasta

Criamos com nome como exemplo acima e configure o tamanho até 5120GB ou 5TB (Cinco terabyte) que é o tamanho máximo de casa pasta.

Pasta criada, e veremos o endereço URL e a chave para que faça sentido o comando AZCOPY para a cópia dos arquivos.

Em Connect teremos um exemplo para conexão e iremos usar como exemplo para utilizar o comando para transferir os dados.

AzCopy /Source:C:\myFolder /Dest:https://myazureaccount.windows.net/myfileshare1 /DestKey:mydestKey /S /Y

Seguindo o exemplo AzCopy /Source:C:\myFolder /Dest:https://myazureaccount.windows.net/myfileshare1 /DestKey:mydestKey /S /Y

A copia dos arquivos que fiz através da minha maquina é da pasta Documentos

C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy>AzCopy /Source:C:\Users\fpere\Documents\ /Dest:https://storagefabiosilva.file.core.windows.net/pastafabio /DestKey:C4br1VX27L8P67BFQ1yrr0U7qYnaZ2hFHIevE8Ph/999jXV0BOnisxAkUOuWDpIjXsXFnhbposten9jUtwpg6g== /S /Y

Veja que quando é dado o comando em amarelo ele mostra em tempo real os arquivos sendo transferidos.

Para conferir que os arquivos estão sendo transferidos através do portal vá na pasta criada e veja os arquivos.

Outra forma também de visualizar os arquivos podemos utilizar através no mapeamento em https://fabiosilva.com.br/2016/11/23/mapeando-storage-no-linux-e-no-windows-no-azure/ ou pelo Azure explorer ou Redgate Azure Explorer mencionado acima.

Arquivos transferidos finalizados com êxito.

Espero que tenham gostado.

Até o próximo post.

Automatização de ambiente com Ansible

ansible

Você que tem ambientes grandes e complexos, ambiente com muitas maquinas hoje é até um pecado não automatizar ambiente.

Com o advento de Nuvem e virtualização cada vez mais teremos mais servidores e serviços separados com elasticidade.

O Ansible veio para automatizar ambiente e facilitar as tarefas chatas de atualização ou instalação de patchs e muito mais.

Eu não vou mostrar como instalar o Ansible pois é uma tarefa relativamente facil

yum install ansible ou apt-get e blá blá blá o google mostra o caminho a você que se interessar.

header2

Introdução

Ansible é um sistema de gerenciamento de configuração fácil que pode ser usada para automatizar e organizar suas tarefas de configuração do sistema para uma grande rede de computadores. Enquanto alguns outros sistemas de gerenciamento de configuração exigem muitos pacotes diferentes para ser instalado nos sistemas de servidor e cliente, com Ansible, você só precisa instalar um componente do servidor e ter acesso SSH para as máquinas clientes.

Neste guia, vamos discutir playbooks ansible, que são forma de criar scripts automatizados para configurar computadores clientes do Ansible.

Vamos supor que você tem um servidor Ansible configurado e alguns clientes.

No nosso guia, o servidor é um Ubuntu 12.04 máquina, e os clientes que vão ser configuração também são Ubuntu 12.04 máquinas, para facilidade de explicação.

Quais são Playbooks ansible?

Playbooks ansible são uma forma de enviar comandos para computadores remotos via script através do SSH. Em vez de usar comandos Ansible individualmente para configurar remotamente os computadores a partir da linha de comando, você pode configurar ambientes complexos inteiros por meio de um script para um ou mais sistemas.

Playbooks ansible estão escritos no formato de serialização de dados YAML. Se você não sabe o que é um formato de dados, pense nisso como uma maneira de traduzir uma estrutura de dados (listas, matrizes, dicionários, etc) em um formato que pode ser facilmente armazenado no disco. O arquivo pode então ser utilizada para criar a estrutura em um momento posterior. JSON é um outro formato  de dados popular, mas YAML é muito mais fácil de ler.

Cada cartilha contém uma ou mais peças, que mapeiam hosts para uma determinada função. Ansible faz isso através de tarefas, que são basicamente as chamadas em módulos.

Explorando um Playbook Básico

Veja o comando.

--- - hosts: droplets tasks: - name: Installs nginx web server apt: pkg=nginx 
state=installed update_cache=true notify: - start nginx handlers: 
- name: start nginx service: name=nginx state=started 

Vamos em seções para que possamos entender como esses arquivos são construídos e que cada peça significa.

O arquivo começa com:

 --- 

Este é um requisito para YAML para interpretar o arquivo como um documento adequado. YAML permite que vários “documentos” em um arquivo, cada um separado por --- , mas Ansible só quer um por arquivo, de modo que este só deve estar presente na parte superior do arquivo.

YAML é muito sensível ao espaço em branco, e usa isso para agrupar diferentes peças de informação em conjunto. Você deve usar apenas espaços e não tabs e você deve usar espaçamento consistente para o arquivo a ser lido corretamente. Itens no mesmo nível de recuo são considerados elementos irmãos.

Os itens que comecem com um - são considerados itens da lista. Os itens que têm o formato de key: value operar como hashes ou dicionários. Isso é muito bonito tudo o que há para YAML básica.

Documentos YAML, basicamente, definir uma estrutura de árvore hierárquica com os que contêm elementos mais à esquerda.

Na segunda linha, temos o seguinte:

 --- - hosts: droplets 

Este é um item de lista no YAML como aprendemos acima, mas uma vez que é no mais à esquerda do nível, é também uma “peça” Ansible. Peças são basicamente grupos de tarefas que são executadas em um determinado conjunto de hosts, que lhes permitam cumprir a função que deseja atribuir a eles. Cada jogo deve especificar um host ou grupo de exércitos, como fazemos aqui.

Em seguida, temos um conjunto de tarefas:

 --- - hosts: droplets tasks: - name: Installs nginx web server 
apt: pkg=nginx state=installed update_cache=true notify: - start nginx 

No nível superior, temos “tarefas:” no mesmo nível “hosts:”. Este contém uma lista (porque começa com um “-“), que contém pares chave-valor.

O primeiro, “nome”, é mais do que uma descrição do que um nome. Você pode chamar isso de qualquer coisa que você gostaria.

A próxima chave é “apto”. Esta é uma referência a um módulo Ansible, assim como quando usamos o comando ansible e digitar algo como:

 ansible -m apt -a 'whatever' all 

Este módulo permite especificar um pacote e o estado que ele deve estar em, que é “instalado” no nosso caso. O update-cache=true parte diz a nossa máquina remota para atualizar seu cache de pacotes (apt-get update) antes de instalar o software.

O item “notificar” contém uma lista com um item, o que é chamado de “começar nginx”. Este não é um comando interno Ansible, é uma referência a um manipulador, que pode executar determinadas funções quando é chamado a partir de uma tarefa. Vamos definir o “start nginx” manipulador abaixo.

 --- - hosts: droplets tasks: - name: Installs nginx web server 
apt: pkg=nginx state=installed update_cache=true notify: - 
start nginx handlers: - name: start nginx service: name=nginx state=started 

A seção “manipuladores” existe ao mesmo nível que os “hosts” e “tarefas”. Manipuladores são como tarefas, mas eles só correr quando lhes foi dito por uma tarefa que ocorreram alterações no sistema do cliente.

Por exemplo, temos um manipulador aqui que inicia o serviço Nginx após o pacote é instalado. O manipulador não é chamado a menos que o “Instal servidor web nginx” resultados da tarefa em mudanças no sistema, o que significa que o pacote teve de ser instalado e já não estava lá.

Nós podemos salvar este em um arquivo chamado algo como “nginx.yml”.

Só por algum contexto, se você fosse escrever esse mesmo arquivo em JSON, que poderia ser algo como isto:

 [ { "hosts": "droplets", "tasks": [ { "name": "Installs nginx web server", 
"apt": "pkg=nginx state=installed update_cache=true", "notify": [ "start nginx" ] } ], 
"handlers": [ { "name": "start nginx", "service": "name=nginx state=started" } ] } ] 

Como você pode ver, YAML é muito mais compacto e maioria das pessoas diria mais legal.

Executando um Ansible Playbook

Depois de ter um guia estratégico construído, você pode chamá-lo facilmente usando este formato:

 playbook.yml ansible-playbook

Por exemplo, se queríamos para instalar e iniciar o Nginx em todos os nossos servidores, poderíamos emitir este comando:

 ansible-playbook nginx.yml 

No entanto, se nós gostaríamos de filtrar a lista , aplicar-se apenas a um desses hospedeiros, podemos adicionar um sinalizador para especificar um subconjunto dos arquivos:

 ansible-playbook -l host_subset playbook.yml

Então, se nós só quesermos instalar e executar o Nginx em um servidor, por exemplo “host3”, que poderia digitar o seguinte:

 ansible-playbook -l host3 nginx.yml 

Adicionando recursos ao Playbook

Agora a nossa cartilha tem esta aparência:

---
- hosts: droplets
  tasks:
    - name: Installs nginx web server
      apt: pkg=nginx state=installed update_cache=true
      notify:
        - start nginx

  handlers:
    - name: start nginx
      service: name=nginx state=started

É simples e funciona, em vários hosts ou em um só.

Podemos começar a expandir a funcionalidade através da adição de tarefas.

Adicionar um padrão Index Arquivo

Podemos dizer-lhe para transferir um arquivo do nosso servidor Ansible no host, adicionando algumas linhas como este abaixo:

---
- hosts: droplets
  tasks:
    - name: Installs nginx web server
      apt: pkg=nginx state=installed update_cache=true
      notify:
        - start nginx

    - name: Upload default index.html for host
      copy: src=static_files/index.html dest=/usr/share/nginx/www/ mode=0644

  handlers:
    - name: start nginx
      service: name=nginx state=started

Podemos, então, fazer um diretório chamado static_files em nosso diretório atual e coloque um arquivo index.html dentro.

 mkdir static_files nano static_files/index.html 

Dentro desse arquivo, vamos apenas criar uma estrutura básica html:

 <html> <head> <title>This is a sample page</title> </head> <body> 
<h1>Here is a heading!</h1> <p>Here is a regular paragraph. Wow!</p> 
</body> </html> 

Salve e feche o arquivo.

Agora, quando executar novamenter o playbook, Ansible irá verificar cada tarefa. Vai ver que Nginx já está instalado no host, por isso vai deixá-lo ser. Ele vai ver a nova seção tarefa e substituir o arquivo index.html padrão com o do nosso servidor.

Resultados

Quando instalar e configurar os serviços manualmente, é quase sempre necessário saber se suas ações foram bem-sucedidas ou não. Podemos cozinhar essa funcionalidade em nossos playbooks usando “registrar”.

Para cada tarefa, que pode, opcionalmente, registrar seu resultado (sucesso ou falha) em uma variável que podemos verificar mais tarde.

Ao utilizar esta funcionalidade, também temos de dizer Ansible para ignorar erros para essa tarefa, já que normalmente ele aborta a execução cartilha para aquela máquina se qualquer problema acontece.

Assim, se quiser verificar se uma tarefa falhou ou não para decidir sobre os passos subsequentes, podemos usar a funcionalidade de registo.

Por exemplo, poderíamos dizer o nosso guia estratégico para carregar um index.php  se ele existir. Se essa tarefa falhar, poderíamos em vez de tentar carregar um index.html. Vamos verificar a condição de falha na outra tarefa, porque nós só queremos fazer o upload do arquivo HTML se o arquivo PHP falhar:

---
- hosts: droplets
  tasks:
    - name: Installs nginx web server
      apt: pkg=nginx state=installed update_cache=true
      notify:
        - start nginx

    - name: Upload default index.php for host
      copy: src=static_files/index.php dest=/usr/share/nginx/www/ mode=0644
      register: php
      ignore_errors: True

    - name: Remove index.html for host
      command: rm /usr/share/nginx/www/index.html
      when: php|success

    - name: Upload default index.html for host
      copy: src=static_files/index.html dest=/usr/share/nginx/www/ mode=0644
      when: php|failed

  handlers:
    - name: start nginx
      service: name=nginx state=started

 

Esta nova versão tenta carregar um arquivo de índice PHP para o local indicado. Ela regista com sucesso da operação em uma variável chamada “PHP”.

Se esta operação foi bem sucedida, a tarefa ira remover o arquivo index.html é executado em seguida.

Se a operação falhar, o arquivo index.html é carregado em vez disso.

Conclusão

Agora, você deve ter um bom controle sobre como automatizar tarefas complexas usando Ansible.

Este é um exemplo básico de como você pode começar a construir a sua biblioteca de configuração.

Combinando definições de host e do grupo como nós aprendemos sobre este tutorial, e com variáveis disponíveis para preencher as informações, podemos começar a montar sistemas complexos que interagem uns com os outros. Em um artigo futuro, vamos discutir como implementar variáveis em nossos playbooks e criar funções para ajudar a gerenciar tarefas complexas.

Como ainda falamos de nuvem o Ansible em ambiente IaaS publico ou não é ideal.

Teste no Azure e Amazon e não precisa falar que ambiente Onpremisses, todos funcionaram.

Tem um demo sensacional no site oficial:

https://www.ansible.com/

Veja um howto facil.

Se você quer seguir para um caminho de DEVOPS o Ansible é a porta de entrada.

Espero ter ajudado.

Abraços

 

DevOps: saiba como ela pode promover a segurança da informação

devops

A segurança da informação é hoje uma das grandes preocupações das empresas de todos os portes. E não era para menos, as ameaças não param de aumentar. Um levantamento feito pela Symantech no início de fevereiro detectou que as empresas brasileiras receberam mais de 40 mil spams para roubo de dados em apenas oito dias. Isso mostra o quanto os hackers estão interessados em invadir contas de e-mails para, a partir delas, chegar aos servidores e colocar em ameaça informações sensíveis como transações financeiras entre outras.

Além das crescentes tentativas de ataques externos por phishing, as próprias vulnerabilidades das soluções desenvolvidas pelas empresas, que agora lidam com um pool muito grande de ferramentas e equipamentos tecnológicos, podem ameaçar a segurança da informação. E, nós sabemos, é muito comum que as equipes de projetos de segurança sejam também responsáveis pela operação da segurança, quando não são também responsáveis por outras áreas de TI. Este dia a dia corrido sobrecarrega os profissionais que, por sua vez, deixam involuntariamente brechas em algum ponto do processo.

E a segurança da informação, neste processo, também se torna uma preocupação das equipes de desenvolvimento, cada vez mais pressionadas para entregar aplicações com agilidade e eficácia.

A boa notícia é que na mesma proporção também crescem os esforços para manter os dados corporativos seguros. Você sabia que a metodologia DevOps pode ajudar a promover a segurança da informação no processo de desenvolvimento da sua empresa? É sobre isso que vamos conversar neste artigo. Confira!

Antes de tudo, vamos relembrar rapidamente o que é, afinal, a DevOps:

O que é DevOps?

Nascido da necessidade de melhorar a entrega de serviços agilidade, o movimento DevOps enfatiza comunicação, colaboração e integração entre desenvolvedores de software e operações de tecnologia da informação (TI). Ao invés de ver estes dois grupos como silos, ou seja, departamentos separados que não trabalham juntos, DevOps reconhece a interdependência das operações de desenvolvimento de software e de TI e ajuda no desenvolvimento mais ágil, com iterações mais frequentes.

Em outras palavras, trata-se de uma metodologia de desenvolvimento de software que cumpre a difícil missão de integrar desenvolvedores de software e profissionais de infraestrutura de TI. E desta integração nascem benefícios como padronização dos desenvolvimentos de desenvolvimento, facilitação da gestão de lançamentos de novas versões, controle e documentação de relatórios, menor tempo de entrega do software, além de diminuir as chances de erros e problemas com testes de qualidade.

Dito isso, vamos agora à explicação de como é possível conseguir mais segurança da informação com a utilização da metodologia DevOps!

Como DevOps promove a segurança da informação?

As organizações adotam a metodologia DevOps para agilizar o processo de desenvolvimento através da combinação de várias etapas em um único processo, automatizado. Assim, diferentemente do processo tradicional de desenvolvimento (cascata), os profissionais de TI de todas as áreas trabalham em conjunto desde o início para reduzir drasticamente o tempo para lançar um produto. Em vez de continuar a existir como um autônoma, entidade isolada de segurança, a segurança da informação passa a ser integrada no processo desde o início.

Dito de outra forma: o método DevOps integra uma série de áreas funcionais, incluindo a segurança, para o produto final. Assim,  a entrada de todos os envolvidos no desenvolvimento começa mais cedo e, em seguida, o processo é automatizado para garantir tempos de liberação previsíveis, curtos e de qualidade. O resultado? Soluções mais seguras, menos vulneráveis, entregues em menos tempo.

Vamos a um detalhamento maior desta proposição:

DevOps promove análises verificativas desde o início do processo de desenvolvimento

Ao usar a metodologia DevOps, a equipe de desenvolvimento preza por fatores relacionados à confiabilidade, proteção e análise do desempenho desde as primeiras etapas. Além disso, DevOps permite ao gestor o monitoramento mais apurado de tudo o que envolve os esforços de desenvolvimento e testes.

DevOps requer testes em todas as etapas do desenvolvimento

Ao invés de começar a fazer testes somente quando o produto estiver finalizado, com DevOps, as equipes testam a performance da aplicação etapa por etapa. Assim fica mais fácil identificar falhas, desajustes, aplicações incompletas e necessidades ainda não supridas pelas funcionalidades. Podemos dizer que o software é corrigido de forma mais instantânea, permitindo que as outras etapas tenham um grau de confiança maior.

DevOps promove a sincronização das equipes permitindo múltiplos mecanismos de autenticação

O método DevOps pode ser disponibilizado em uma ferramenta multi-inquilino (funcionando em ambientes híbridos). Isso permite diversos mecanismos de autenticação, inclusive no próprio servidor. Isso faz com que as equipes trabalhem mais sincronizadas, fazendo com que os erros involuntários, muitas vezes causados por má interpretação de requisitos, sejam mitigados.

DevOps traz mais poder de intervenção durante o desenvolvimento

A dinâmica do processo de desenvolvimento trazida pela metodologia DevOps facilita a detecção de falhas. Isso faz com que os profissionais envolvidos consigam intervir em tempo para fazer as correções e não comprometer as etapas posteriores.

DevOps é um novo paradigma para profissionais de desenvolvimento e segurança da informação — uma conclusão

Em suma, podemos resumir que a metodologia DevOps traz mais segurança no código (testes ao longo do desenvolvimento), correções ao longo do processo (no processo tradicional, os testes são feitos ao final), traz os profissionais de segurança da informação para o meio do processo de desenvolvimento, o que também melhora a detecção de vulnerabilidades e as correções e promove uma cultura de prevenção.

DevOps é, portanto, não só uma cultura de desenvolvimento mais ágil e de integração das equipes de desenvolvedores com a operação de TI, mas também é um salto em matéria de segurança da informação. Trata-se de um método que faz com que a segurança deixe de ser um ponto isolado, passe a fazer parte de todo o desenvolvimento da aplicação. E isso é também um novo paradigma para os profissionais de TI que estão, cada vez mais, em busca de maior agilidade e assertividade em suas entregas.

Você já utiliza a metodologia DevOps no desenvolvimento? Quer saber mais sobre o assunto? Baixe grátis o e-book: ‘Guia Rápido DevOps — Aprenda de maneira simples o que é e como implantar DevOps’.

 

Sulamita Dantas

DBA SQL Server & Analista BI

Ao redor do buraco tudo é beira!

Um cavalo morto é um animal sem vida!

Exame

Notícias do Brasil e do Mundo. Economia, Política, Finanças e mais. ➤ Entrevistas, Análises e Opinião de quem entende do Assunto! ➤ Acesse!

randieri.com

Il blog di Cristian Randieri

TEC OFFICE PRODUTIVO

Tec Office Produtivo é um grupo de treinamentos, dicas e tutorias de informática sobre aplicativos utilizados em escritórios.

GOLD RECIPES.

GOLD RECIPES.

Escadas Especiais

A Escadas Especiais leva você as alturas

%d blogueiros gostam disto: