O que é pré-processamento de dados? Definição, conceitos, importância, ferramentas (2025)
Cientistas de dados gastam em torno de 60% do seu tempo de pré-processamento de dados, o que destaca o quão crucial é para converter dados em insights acionáveis. O pré-processamento de dados desempenha um papel crítico no aprimoramento da confiabilidade e precisão das análises.
Mas imagine se esses 60% pudessem ser reduzidos para 10%. E se, em vez de aprender fluxos de trabalho complexos de pré-processamento, você pudesse simplesmente dizer aos seus dados o que fazer em inglês simples?
Este blog discutirá por que o pré-processamento de dados é essencial para torná-los adequados para análises abrangentes. Também exploraremos como a IA conversacional está democratizando o pré-processamento de dados, tornando-o acessível a todos — não apenas a cientistas de dados com habilidades técnicas avançadas.
O que é pré-processamento de dados?
O pré-processamento de dados é o primeiro passo crítico na análise de dados. Ele permite que você transforme dados brutos em um formato compreensível e utilizável para análise. É um processo abrangente que garante que os dados estejam preparados e prontos para os estágios subsequentes de exploração, modelagem e interpretação.
O pré-processamento tradicional de dados exige amplo conhecimento técnico, configurações complexas de ferramentas e horas de trabalho manual. No entanto, a IA conversacional está revolucionando esse processo, permitindo que os usuários descrevam suas necessidades de pré-processamento em linguagem natural, tornando a transformação sofisticada de dados acessível a usuários corporativos, analistas e especialistas de domínio sem profundo conhecimento técnico.
Embora o pré-processamento de dados deva ser realizado antes da construção de modelos de machine learning (ML), ele não é o único passo que precede a análise. Veja como esses passos diferem:
Limpeza de dados vs. pré-processamento de dados
Embora frequentemente usados de forma intercambiável, limpeza de dados e pré-processamento de dados não são a mesma coisa.
Limpeza de dados é um subconjunto do pré-processamento, preocupado principalmente em identificar e corrigir erros e inconsistências no conjunto de dados.
Pré-processamento de dados, por outro lado, é um termo abrangente que inclui limpeza de dados e outros processos, como normalização, transformação e extração de características, que são essenciais para preparar dados para análise.
Exploração de dados vs. pré-processamento de dados
Exploração de dados é como um trabalho de detetive, onde você procura padrões, anomalias e insights nos dados. Envolve fazer perguntas e obter respostas por meio de métodos visuais e quantitativos.
Pré-processamento de dados, no entanto, é a base que torna tal exploração possível. Envolve limpar, transformar e organizar dados para serem explorados e analisados de forma eficaz para obter insights significativos.
Preparação de dados versus pré-processamento de dados
Preparação de dados e pré-processamento de dados são frequentemente usados como sinônimos, mas podem ter conotações diferentes.
Preparação de dados pode ser uma categoria mais ampla, incluindo pré-processamento, coleta de dados e integração. Ela abrange todo o processo de deixar os dados prontos para análise, desde quando são coletados até quando são inseridos em ferramentas analíticas.
Pré-processamento de dados, embora faça parte da preparação, é focado especificamente na transformação e condicionamento de dados antes da análise.
Democratizando o pré-processamento de dados com IA conversacional
A abordagem tradicional ao pré-processamento de dados cria barreiras significativas:
- Conhecimento Técnico Necessário: Linguagens de programação complexas e conhecimento estatístico
- Muito demorado: Horas ou dias gastos em configuração e testes
- Propenso a erros:Processos manuais levam a inconsistências e erros
- Acessibilidade Limitada: Somente cientistas e analistas de dados podem pré-processar dados de forma eficaz
A IA conversacional remove completamente essas barreiras:
- Interface de Linguagem Natural:Descreva simplesmente o que você precisa em linguagem empresarial cotidiana
- Resultados instantâneos: Tarefas de pré-processamento concluídas em minutos em vez de horas
- Qualidade consistente: A IA garante resultados de nível profissional sempre
- Acesso universal: Qualquer pessoa pode pré-processar dados, independentemente da formação técnica
Exemplo do mundo real:
- Método Tradicional: Aprenda Python/R, configure pandas ou scikit-learn, escreva scripts para imputação de valores ausentes, teste diferentes abordagens de normalização, depure erros, documente o processo (6 a 8 horas)
- Método Conversacional: “Padronize os dados do cliente e preencha os valores ausentes usando métodos apropriados” (5 a 10 minutos)
Por que o pré-processamento de dados é importante?
A integridade da análise de dados é altamente dependente da qualidade do pré-processamento dos dados. O pré-processamento de dados determina a usabilidade e a interpretabilidade dos dados, estabelecendo as bases para modelos precisos de aprendizado de máquina e IA.
Eliminando Erros
Limpeza é uma técnica fundamental de pré-processamento de dados. Ela permite eliminar erros, imputar valores ausentes e corrigir inconsistências. Com o pré-processamento conversacional, isso se torna tão simples quanto dizer: "Limpe este conjunto de dados e corrija quaisquer problemas de qualidade".
Por exemplo, um conjunto de dados de clientes com entradas redundantes devido a erros técnicos passaria por uma limpeza para garantir que cada registro de cliente seja único e representado com precisão. Em vez de escrever uma lógica complexa de desduplicação, você pode simplesmente solicitar: "Remover registros de clientes duplicados, mantendo a versão mais recente".
Tornando os dados uniformes
Normalização é comparável ao estabelecimento de condições equitativas de concorrência, onde medidas díspares são ajustadas a uma escala uniforme, permitindo comparações equitativas. O pré-processamento conversacional torna isso acessível: "Padronize todos os valores de moeda para USD e normalize as faixas de preço."
Por exemplo, a normalização pode ajudar você a analisar o desempenho de ações de diferentes países, mesmo que os preços das ações estejam disponíveis em diversas moedas e escalas. Com técnicas de normalização, como min-max, você pode converter todos os preços das ações para uma moeda comum, por exemplo, USD, e então aplicar uma escala min-max para comparar o desempenho relativo das ações em uma escala uniforme.
Encontrando padrões ocultos
O pré-processamento diligente pode revelar padrões e insights ocultos. Uma equipe de marketing que analisa dados de mídia social pode identificar horários de pico de engajamento alinhados com a atividade de spam. No entanto, excluir anomalias por meio da limpeza de dados permitirá identificar períodos de pico de engajamento genuínos e otimizar a estratégia.
Pré-processamento de Big Data
À medida que os conjuntos de dados aumentam em tamanho e complexidade, o pré-processamento torna-se ainda mais crítico. Big data tem um grande volume, é heterogêneo e precisa ser processado rapidamente. O pré-processamento transforma big data bruto em um formato mais limpo e estruturado, removendo ruídos e facilitando o processamento.
Da mesma forma, técnicas avançadas como processamento paralelo, computação distribuída e pipelines de pré-processamento automatizados são indispensáveis para o processamento eficaz de big data.
A preparação de dados nunca foi tão fácil
Dados limpos e bem preparados estão a apenas um bate-papo de distância. A única coisa Astera O Dataprep precisa que você faça alguma coisa? Converse com ele.
Experimente gratuitamente!Como pré-processar dados de forma conversacional
O pré-processamento de dados envolve várias etapas importantes que transformam dados brutos em um formato pronto para análise. Cada etapa tradicional agora conta com uma alternativa conversacional que torna o processo acessível a todos.
1. Criação de perfil de dados
Compreender seus dados é a primeira etapa do pré-processamento. O perfil de dados envolve examinar os dados usando estatísticas resumidas e distribuições para compreender sua estrutura, conteúdo e qualidade. Esta etapa pode revelar padrões, anomalias e correlações cruciais para um pré-processamento informado.
Exemplo: Um gerente de varejo deseja analisar um conjunto de dados de compras de clientes para encontrar o gasto médio, os itens mais comuns e os horários de compra, a fim de elaborar uma estratégia de marketing baseada em dados. Ele pode simplesmente inserir a seguinte instrução: "Crie o perfil dos dados de compras dos nossos clientes e identifique os principais padrões e tendências de gastos para a estratégia de marketing."
2. Limpeza de dados
A limpeza de dados detecta e corrige registros de dados corrompidos ou imprecisos, como erros, valores discrepantes, duplicatas e valores ausentes. Métodos como imputação de dados ausentes ou remoção de valores discrepantes ajudam a garantir a precisão do seu conjunto de dados.
Exemplo: Gerentes de vendas corrigem categorias de produtos com erros ortográficos ou removem registros duplicados nos dados de vendas. Usando a preparação de dados por chat, eles podem usar uma instrução como "Padronizar todas as categorias de produtos e remover quaisquer registros de vendas duplicados".
3. Redução de dados
A redução de dados visa diminuir o volume de dados enquanto produz resultados analíticos iguais ou semelhantes. Técnicas como redução de dimensionalidade, binning, histogramas, clustering e análise de componentes principais podem simplificar os dados sem perder padrões e tendências informativos.
Exemplo: Um pesquisador usa apenas os recursos mais relevantes de uma pesquisa com clientes para prever hábitos de compra, em vez de todo o conjunto de dados, então ele pode usar a instrução: “Reduza este conjunto de dados aos principais fatores que preveem o comportamento do cliente”.
4. Transformação de dados
Transformação de dados ajuda a modificar dados para necessidades específicas. Abrange uma variedade de etapas, como agregação, normalização e classificação, entre outras, cada uma desempenhando um papel vital na compreensão dos dados.
Por exemplo, a agregação de dados reúne pontos de dados individuais para fornecer uma visão geral consolidada, como um resumo dos números de vendas mensais. Da mesma forma, a criação de recursos cria novas variáveis a partir do conjunto de dados existente, o que ajuda a discernir de forma mais eficaz as tendências intrínsecas nos dados.
A transformação de dados também pode ser usada para criar novos atributos no conjunto de dados. Você pode usar expressões matemáticas para extrair CEPs de um endereço e armazená-los separadamente ou criar novos atributos a partir de recursos existentes.
Exemplo: Um analista de dados de saúde utiliza expressões matemáticas para criar novos recursos, como o Índice de Massa Corporal (IMC), por meio de recursos existentes, como altura e peso. Com a preparação de dados conversacional, isso se torna tão fácil quanto escrever: "Crie valores de IMC a partir de dados de altura e peso e extraia CEPs de endereços".
5. Enriquecimento de dados
Aprimorar os dados com fontes adicionais ou atributos derivados pode fornecer mais profundidade e contexto. Envolve a incorporação de informações demográficas nos dados dos clientes ou a adição de dados meteorológicos aos números de vendas para contabilizar os efeitos sazonais.
Exemplo: Um analista de dados adiciona dados meteorológicos aos dados de vendas de um varejista para ver se os padrões climáticos afetam as tendências de compra.
6. Validação de dados
Antes de passar para a análise, é crucial garantir a integridade dos seus dados. A validação de dados verifica se os dados atendem a critérios específicos, como restrições, relações e intervalos. Ajuda a confirmar se os dados são precisos, completos e confiáveis.
Exemplo: Um executivo financeiro verifica se todas as entradas em um conjunto de dados de transação estão dentro dos intervalos de datas e valores de transação esperados.
Transforme seus dados brutos em insights acionáveis com Astera
Otimize seus esforços de pré-processamento e processamento de dados para obter economias visíveis de tempo e custos.
Veja a demonstração para ver como Astera Pode ajudarDiga aos seus dados o que fazer em vez de aprender fluxos de trabalho complexos
A mudança fundamental do pré-processamento tradicional para o pré-processamento conversacional:
Fluxo de trabalho de pré-processamento tradicional:
- Aprenda sintaxe de ferramentas e linguagens de programação
- Pesquise técnicas de pré-processamento apropriadas
- Escreva e teste o código de transformação
- Lidar com casos extremos e erros
- Validar resultados manualmente
- Documente o processo
Tempo total: 4–8 horas para pré-processamento básico
Fluxo de trabalho de pré-processamento conversacional:
- Descreva suas necessidades em linguagem natural
- Revise a compreensão e a visualização da IA
- Aprovar a transformação
Tempo total: 5–15 minutos para o mesmo pré-processamento
Pré-processamento de dados em aprendizado de máquina: principais benefícios potencializados pela IA conversacional
Garantindo dados de alta qualidade
O pré-processamento de dados influencia diretamente a precisão da análise. Os dados pré-processados, desprovidos de ruídos irrelevantes e inconsistências, permitem que os modelos discernam e aprendam com características importantes, melhorando a precisão das previsões e a capacidade de tomada de decisões.
O pré-processamento inclui várias atividades, como limpeza de dados, manipulação de valores ausentes, normalização ou dimensionamento de recursos, codificação de variáveis categóricas e redução da dimensionalidade. Cada etapa ajuda a refinar o conjunto de dados para que os algoritmos de aprendizado de máquina possam interpretar os dados de forma correta e eficiente. Por exemplo, entender como funciona o SVM é crucial ao escolher o algoritmo certo para tarefas de classificação.
Por exemplo, o dimensionamento de recursos garante que todos os recursos de entrada tenham peso igual, evitando que qualquer recurso influencie desproporcionalmente a saída do modelo. Da mesma forma, a codificação de variáveis categóricas em um formato numérico é essencial para alguns algoritmos que aceitam apenas dados numéricos como entrada.
Refinando a precisão e o desempenho do modelo
O pré-processamento de dados no aprendizado de máquina nos permite remover muitos obstáculos que podem prejudicar o desempenho do modelo. Isso nos ajuda a fazer previsões mais precisas, confiáveis e robustas.
O pré-processamento protege contra sobreajuste, onde um modelo poderia internalizar o ruído como parte do sinal, comprometendo sua capacidade de generalizar para novos dados. Técnicas como normalização e dimensionamento de recursos promovem a adaptabilidade de um modelo.
Engenharia de recursos, uma faceta essencial do desenvolvimento do modelo, é muito facilitada pelo pré-processamento. Ele permite recursos inovadores a partir de dados existentes, refinando o desempenho do modelo.
Por exemplo, há um conjunto de dados de pesquisas médicas com centenas de recursos. Através do pré-processamento de dados, especialmente da seleção de recursos, você pode identificar os recursos mais relevantes — como idade, sintomas e histórico médico — que são essenciais para prever uma doença. Isso descarta detalhes menos importantes, como a cor favorita do paciente, melhorando a precisão do modelo preditivo sem modificar os dados originais.
Acelere o processo de aprendizagem e a confiabilidade do modelo
A eficiência do processo de treinamento também se beneficia imensamente com o pré-processamento. Os algoritmos podem identificar padrões mais rapidamente em dados limpos, reduzindo assim o tempo, o esforço e a energia gastos no treinamento do algoritmo. Todas essas são considerações vitais em ambientes de big data.
Além disso, a confiabilidade dos insights obtidos a partir da IA e do aprendizado de máquina depende da precisão do pré-processamento. Ele garante que a entrada de dados nos modelos seja confiável, permitindo previsões confiáveis e acionáveis.
Como o pré-processamento de dados baseado em chat simplifica as técnicas tradicionais
Técnicas de pré-processamento de dados ajudam você a refinar dados para modelos de aprendizado de máquina ou análises estatísticas. Com a IA conversacional, essas técnicas complexas se tornam tão simples quanto descrever o que você precisa:
Imputação de dados
A falta de dados pode distorcer a análise e levar a modelos imprecisos. As estratégias para lidar com valores faltantes incluem imputação (preenchimento de valores faltantes com medidas estatísticas como média ou mediana) ou o uso de algoritmos que podem lidar com dados faltantes, como florestas aleatórias.
Reduza dados barulhentos
Dados ruidosos podem obscurecer padrões significativos. Técnicas como suavização (usando médias móveis) e filtragem (aplicação de algoritmos para remover ruído) ajudam a esclarecer o sinal nos dados. Por exemplo, uma média móvel pode suavizar flutuações de curto prazo e destacar tendências de longo prazo.
Identificar e remover duplicatas
Dados duplicados podem distorcer a análise, levando a resultados tendenciosos. A detecção pode ser tão simples quanto procurar registros idênticos ou tão complexa quanto identificar quase duplicatas usando correspondência difusa. A remoção garante que cada ponto de dados seja único, mantendo a integridade do seu conjunto de dados.
Engenharia de recursos
A criação de novos recursos a partir de dados existentes pode desbloquear insights profundos. Este processo pode envolver a combinação de duas variáveis para criar uma nova, como o cálculo do Índice de Massa Corporal a partir do peso e da altura ou a extração de partes de dados (como o dia da semana) para análise de séries temporais.
Dimensionamento ou normalização de recursos
Dimensionar recursos para uma faixa uniforme garante que nenhum recurso único domine o modelo devido à escala. Os métodos incluem escala min-max, que redimensiona o recurso para um intervalo fixo, geralmente de 0 a 1, ou padronização, que centraliza o recurso em zero com variação unitária.
Redução de dimensionalidade
Técnicas de redução de dimensionalidade, como a Análise de Componentes Principais, diminuem as variáveis em consideração, simplificando o modelo sem perder informações significativas. Este método pode melhorar o desempenho do modelo e reduzir a complexidade computacional.
Discretização
A conversão de recursos contínuos em compartimentos discretos pode tornar os dados mais gerenciáveis e melhorar o desempenho do modelo. Por exemplo, a idade pode ser agrupada em categorias como '18-25′, '26-35′, etc., para simplificar a análise e revelar tendências geracionais.
Codificação de Recurso
Métodos de codificação de dados categóricos, como codificação one-hot ou de rótulo, convertem variáveis categóricas em formato numérico para treinamento de modelo. A codificação é essencial para algoritmos que requerem entrada numérica.
Aproveite até 60% de economia de tempo. Otimize o pré-processamento de seus dados com Astera.
Simplifique sua preparação de dados com nosso guia abrangente passo a passo.
Baixe o guia de preparação de dados gratuitamente.Ferramentas de pré-processamento de dados + A vantagem baseada em bate-papo
Ferramentas de pré-processamento de dados simplificam a forma como você interage com dados extensos, facilitando a modelagem e o polimento de dados complexos. No entanto, a IA conversacional representa a próxima evolução, tornando todas as tarefas de pré-processamento acessíveis por meio de linguagem natural.
Ferramentas tradicionais:
- Pandas: esta biblioteca Python oferece uma ampla gama de funções para manipulação de dados, tornando-a ideal para limpeza, filtragem e agregação de grandes conjuntos de dados.
- Scikit-learn: O Scikit-learn está equipado para lidar com tudo, desde o dimensionamento de recursos até a codificação de variáveis categóricas, garantindo que seus dados estejam na melhor forma para modelagem.
- OpenRefine: Projetado para os desafios de dados confusos, o OpenRefine é uma ferramenta independente que limpa e transforma dados. É benéfico para padronizar formatos de dados e enriquecer conjuntos de dados com informações de fontes externas.
Vantagens do pré-processamento de dados baseado em chat:
- Curva de Aprendizagem Zero: Não é necessário treinamento técnico ou de programação
- Interface de Linguagem Natural: Descreva o que você precisa em linguagem empresarial cotidiana
- Resultados instantâneos: Tarefas complexas de pré-processamento concluídas em minutos
- Qualidade Profissional: A IA garante resultados de nível empresarial de forma consistente
- Acesso universal: Qualquer pessoa pode pré-processar dados, independentemente do histórico
pandas.dropna(), fillna()StandardScaler().fit_transform()pd.get_dummies()SimpleImputer()Como Astera O Dataprep simplifica o pré-processamento de dados
Astera Preparação de dados simplifica o pré-processamento de dados, eliminando as barreiras tradicionais de conhecimento técnico e proficiência em codificação. Sua interface baseada em chat garante que o pré-processamento atenda os usuários onde eles estão. e fala a língua deles — e também oferece muitos outros benefícios.
- Velocidade: Acelere o processo de preparação de dados de horas para minutos com IA conversacional, fornecendo insights mais rápidos. Basta descrever o que você precisa: "Prepare estes dados do cliente para análise de rotatividade" → Conclua o pré-processamento em menos de 15 minutos
- Precisão: Minimize o erro humano com a interpretação de requisitos de linguagem natural por meio de IA. Os processos manuais tradicionais são substituídos por uma automação consistente e de nível profissional.
- Acessibilidade: Qualquer pessoa pode pré-processar dados descrevendo suas necessidades em linguagem simples. Não é necessário treinamento técnico, conhecimento de codificação ou pessoal especializado.
- Eficiência de custos: Reduzir a necessidade de pessoal especializado e treinamento, tornando o pré-processamento de dados acessível a usuários empresariais, analistas e especialistas de domínio
- Agilidade: Adapte-se rapidamente às mudanças nos requisitos de dados com flexibilidade de conversação – basta descrever os novos requisitos e a IA cuida da implementação técnica
- Global: Lide sem esforço com o crescente volume de dados e a complexidade por meio do processamento de conversação nativo da nuvem que é dimensionado automaticamente
Exemplos de pré-processamento baseados em bate-papo do mundo real
Usuário comercial: “Preciso que esses dados de vendas sejam limpos e estejam prontos para relatórios mensais”
Resposta de IA: Remove automaticamente duplicatas, padroniza formatos, lida com valores ausentes e cria agregações mensais
Analista de Dados: “Prepare os dados desta pesquisa de clientes para aprendizado de máquina, com foco na previsão de rotatividade”
Resposta de IA: Aplica engenharia de recursos, codificação, dimensionamento e validação otimizados para modelos de rotatividade
Gerente de Marketing: “Enriquecer os dados dos nossos clientes com informações demográficas e segmentar por comportamento de compra”
Resposta de IA: Conecta-se a fontes de dados, realiza enriquecimento e cria segmentos comportamentais
A Astera Advantage
Astera A plataforma fácil de usar da Dataprep democratiza o processo de preparação de dados com pré-processamento de dados conversacional baseado em nuvem, permitindo que você descreva suas necessidades em linguagem natural enquanto a IA lida com a coleta, limpeza, transformação e organização automatizadas de dados, independentemente da experiência técnica.
Pronto para transformar seu fluxo de trabalho de pré-processamento de dados? Experimente Astera Dataprep em primeira mão inscrevendo-se para um você recebe uma avaliação gratuita de 14 dias da nossa licença Business Edition e pode aproveitar alguns dos recursos avançados da plataforma SecurityScorecard..
O que é pré-processamento de dados em aprendizado de máquina?
Por que o pré-processamento de dados é importante?
Quais são as principais etapas envolvidas no pré-processamento de dados convencional?
As principais etapas do pré-processamento de dados convencional incluem:
- Criação de perfil de dados: Entender a estrutura e a qualidade dos dados.
- Limpeza de dados: Corrigindo erros e tratando valores ausentes.
- Redução de dados: Simplificando o conjunto de dados reduzindo seu tamanho sem perder informações significativas.
- Transformação de dados: Modificar dados para atender às necessidades analíticas, como normalização ou agregação.
- Enriquecimento de dados: Melhorar dados adicionando informações relevantes de fontes externas.
- Data de validade: Garantir que os dados atendam a critérios específicos e estejam prontos para análise.
Como o pré-processamento de dados difere da limpeza de dados?
Quais técnicas são comumente usadas no pré-processamento de dados?
Técnicas comuns de pré-processamento de dados incluem:
- Imputação de dados: Preenchimento de valores ausentes usando métodos estatísticos.
- Redução de ruído: Suavizar irregularidades nos dados para destacar padrões importantes.
- Dimensionamento de recursos: Ajustando a escala das variáveis para garantir uniformidade.
- Codificando Variáveis Categóricas: Convertendo dados categóricos em formatos numéricos para análise.
- Redução de dimensionalidade: Reduzir o número de variáveis em consideração para simplificar modelos.
Quais ferramentas podem auxiliar no pré-processamento de dados?
Várias ferramentas podem facilitar o pré-processamento de dados, incluindo:
- Pandas: Uma biblioteca Python que oferece funções para manipulação e análise de dados.
- Scikit-aprender: Fornece utilitários para tarefas de pré-processamento, como dimensionamento e codificação.
- AbrirRefinar: Uma ferramenta projetada para limpar e transformar dados confusos.
- Astera Preparação de dados: Simplifica o pré-processamento de dados com uma interface baseada em bate-papo e suporte para instruções em linguagem natural, permitindo que os usuários simplesmente descrevam suas necessidades enquanto a IA lida com a coleta, limpeza, transformação e organização automatizadas de dados, sem necessidade de codificação ou treinamento técnico.
Como a IA conversacional muda o pré-processamento de dados?
A IA conversacional democratiza o pré-processamento de dados por meio de:
- Eliminando barreiras técnicas – qualquer pessoa pode pré-processar dados usando linguagem natural
- Reduzir o tempo de horas para minutos – descrever necessidades em vez de configurar ferramentas
- Garantindo qualidade consistente – a IA aplica as melhores práticas automaticamente
- Tornando a experiência acessível – os usuários empresariais obtêm resultados de nível de cientista de dados
- Permitindo a colaboração – as equipes trabalham juntas usando uma linguagem empresarial comum


