Fechar

Política para a Inteligência Artificial da Ayming

Conheça a política para a Inteligência Artificial da Ayming

Política para a Inteligência Artificial
Ayming Portugal > Política para a Inteligência Artificial da Ayming

Política para a Inteligência Artificial da Ayming

1. Objetivo

Esta política estabelece os princípios fundamentais que orientam a integração responsável da inteligência artificial (IA) nas nossas ferramentas e serviços, tendo em conta as diferentes utilizações da IA na nossa empresa. Estes princípios visam estabelecer uma relação de confiança com os nossos clientes e colaboradores, garantindo transparência, responsabilização, confidencialidade, equidade, responsabilidade social e formação contínua.

2. Princípios gerais

Governança

A política de IA é definida pelo Comité Executivo da Ayming.

Para a implementação desta Política de IA, a Ayming concorda em estabelecer um Comité de Governança de Políticas de IA cuja missão principal é garantir a conformidade e adesão à política de IA e às melhores práticas estabelecidas.

Os membros do Comité de Governança de Políticas de IA são:

  • Diretor da Gestão de Deputados
  • DPO (Encarregado de Proteção de Dados)
  • Conselheiro Geral (ou representante do Departamento Jurídico)
  • Gerente Geral de uma das nossas subsidiárias
  • Um representante do Departamento de Recursos Humanos

Uma vez por ano, o Comité de Governança de Políticas de IA apresenta um relatório de IA, que analisa o uso de IA dentro da Ayming, a conformidade com a política e faz recomendações para mudanças na política.

Os projetos de conceção e implementação de soluções de IA são coordenados por estruturas ad hoc nomeadas pelo Comité Executivo ou outras estruturas diretivas.

Transparência para com os clientes e funcionários da Ayming

Estamos empenhados em garantir a total transparência relativamente à utilização de inteligência artificial (IA) nos nossos serviços. Cada funcionário pode integrar o uso de IA no desempenho das suas funções em nome de um Cliente. É, portanto, necessário que informem esse Cliente sobre a sua utilização da IA, a fim de garantir a transparência.

Consideramos a transparência um pilar fundamental da nossa abordagem ética à integração da IA. Consequentemente, assim que um serviço beneficiar da contribuição da IA, garantimos que informamos as partes interessadas de forma clara, precisa e compreensível.

3. Responsabilidades

Controlo primário por um humano

O nosso compromisso com a utilização responsável da IA inclui garantir que qualquer informação produzida a partir da utilização da IA permaneça sob o controlo de uma pessoa. Acreditamos na importância da autonomia individual e do livre-arbítrio no processo de tomada de decisão, mesmo quando a IA está envolvida.

Estamos, portanto, empenhados em implementar mecanismos que permitam a cada funcionário da Ayming exercer o seu dever de controlo sobre o conteúdo produzido pela IA. Cada funcionário da Ayming terá o dever de fazer alterações com base no seu know-how.

Iremos garantir que estes mecanismos sejam acessíveis e compreensíveis, para garantir que cada funcionário da Ayming possa cumprir o seu dever de forma eficaz e informada. Serão implementadas interfaces claras e intuitivas para facilitar a comunicação e a interação entre os utilizadores e os sistemas de IA.

Esta garantia de controlo humano visa estabelecer uma relação de confiança, garantindo que os colaboradores da Ayming mantêm sempre a primazia nas ações que realizam e na decisão que têm de tomar, mesmo num contexto onde a IA está presente. Vemos isto como um princípio fundamental para a integração ética e responsável da IA nos nossos serviços.

Verificação de plágio

No contexto da utilização da IA para produzir informação que possa estar sujeita a direitos de autor, todos os funcionários da Ayming devem realizar verificações minuciosas para detetar qualquer forma de plágio. Esta verificação deve ser realizada de forma escrupulosa para garantir a originalidade e autenticidade do conteúdo gerado, no todo ou em parte, pela IA.

Neste caso, o funcionário da Ayming deve garantir que o conteúdo produzido com recurso à IA não infringe quaisquer direitos de autor, não viola qualquer propriedade intelectual e não constitui uma utilização não autorizada de qualquer trabalho protegido por lei. Caso sejam identificados elementos de plágio ou outras semelhanças não autorizadas durante a verificação, o colaborador da Ayming é obrigado a tomar as medidas adequadas para corrigir essa situação, de acordo com as políticas e procedimentos da empresa nesse âmbito.

A verificação de plágio deve ser realizada de forma diligente antes de qualquer distribuição, publicação ou apresentação de conteúdo gerado por IA, seja internamente ou para clientes externos. A responsabilidade de garantir a originalidade e integridade do conteúdo é inteiramente do funcionário que utilizou a IA.

Prevenção de uso não autorizado

Como parte do nosso compromisso de garantir o uso ético e responsável da IA, tomamos medidas ativas para impedir o uso não autorizado desta tecnologia. Estas medidas visam garantir que o acesso aos sistemas, modelos e dados de IA seja estritamente controlado e limitado a indivíduos autorizados.

Estabelecemos protocolos de segurança robustos para proteger os nossos sistemas de IA contra invasões e acesso não autorizado. Isto inclui a implementação de mecanismos de autenticação multifator, gestão de autorização baseada na utilização, encriptação de dados e outras medidas de segurança avançadas para garantir a integridade e confidencialidade das informações.

Gestão de erros

Temos em consideração várias características intrínsecas sobre como os modelos de IA funcionam:

  • Limitação de dados de aprendizagem: cada modelo é limitado nas suas capacidades e não pode ser aplicado com confiança a todos os casos;
  • Natureza estatística: a informação produzida é estatística, muitas vezes não determinística e não reprodutível;
  • Falta de explicabilidade: o processo que leva à informação produzida geralmente não é explicável.

Uma consequência disto é que a informação produzida por IA pode ser incompleta, errada ou falsa. Este risco é tido em conta e, dependendo da utilização e do contexto, são implementadas medidas de prevenção ou correção de erros, automáticas ou não. Sempre que possível, é avaliada a qualidade da informação produzida.

Os casos em que são detetados erros ou inconsistências no uso da IA são registados. Dependendo do contexto, são implementadas medidas para reduzir os erros ou as suas consequências.

4. Responsabilidade Social

Promovendo a Diversidade e a Inclusão na IA

Estamos empenhados em promover a diversidade e a inclusão no desenvolvimento e utilização da IA, garantindo que as nossas tecnologias refletem os valores da igualdade.

Colaboração com stakeholders externos

Trabalhamos com as partes interessadas externas, incluindo especialistas independentes e organizações da sociedade civil, para beneficiar das suas perspetivas e melhorar as nossas práticas de IA.

Aumentando a conscientização sobre questões éticas da IA

Nós envergamos esforços para educar e consciencializar os nossos funcionários, clientes e o público em geral sobre as questões éticas relacionadas com a IA, incentivando o uso responsável desta tecnologia.

5. Confidencialidade e proteção de dados confidenciais e pessoais

Uso seguro de dados confidenciais e dados pessoais de clientes

O nosso compromisso com o uso de dados confidenciais e pessoais na IA é baseado em princípios de segurança rígidos, de confidencialidade e de conformidade.

Implementamos medidas de segurança avançadas para proteger os dados dos nossos clientes contra acesso, divulgação, alteração ou destruição não autorizada. Isto inclui encriptação de dados, gestão de acessos, monitorização contínua e outras medidas avançadas de segurança para garantir a integridade e confidencialidade dos dados.

Comprometemo-nos a utilizar os dados apenas para os fins para os quais foram recolhidos e para os quais foi obtido consentimento. Não utilizamos os dados para qualquer outra finalidade sem o consentimento explícito dos nossos clientes.

Rastreabilidade da utilização da IA

Mantemos um registo de cada utilização de um modelo de IA para os nossos Clientes, garantindo uma adequada monitorização e auditabilidade. Estamos abertos a qualquer verificação independente da nossa utilização da IA.

Cada instância da utilização de IA para Entrega ou Software é registada e associada a metadados relevantes como data, hora, contexto de uso, dados utilizados, resultados obtidos e outros parâmetros específicos de cada caso.

Esta rastreabilidade permite-nos garantir uma auditabilidade adequada da utilização da IA na prestação dos nossos serviços aos nossos clientes. Os nossos clientes têm o direito de solicitar informações detalhadas sobre a utilização da IA para os serviços que receberam, e estamos empenhados em fornecer-lhes esses dados de forma transparente e acessível. O pedido deve provir de uma autoridade competente do cliente, deve ser detalhado, proporcional, lícito e não contrário a quaisquer termos contratuais. Nós acreditamos que para construir confiança mútua e estabelecer relações duradouras é essencial uma compreensão plena do impacto e do funcionamento da IA.

6. Formação e Consciencialização

Formação Contínua dos Colaboradores

Nós consideramos a sensibilização e a formação dos colaboradores da Ayming como pilares fundamentais para garantir o uso responsável da IA dentro da nossa empresa. Veja como implementamos esta formação contínua:

  • Planeamento e Programação: Estabelecemos um programa regular de formação em IA responsável, adaptado aos diferentes níveis de responsabilidade e funções dentro da nossa empresa. Este programa está planeado para cobrir os aspetos éticos da IA, as implicações sociais, as melhores práticas na recolha e utilização dos dados e os desafios da transparência e da responsabilização;
  • Palestrantes qualificados: Trazemos especialistas internos e externos especializados na ética da IA para conduzir sessões de formação. Estes oradores partilham os seus conhecimentos, experiências e casos concretos para ilustrar os princípios éticos associados à IA;
  • Interação e diálogo: Incentivamos o diálogo e a troca durante essas sessões de formação. Os funcionários da Ayming têm a oportunidade de fazer perguntas, discutir casos de uso específicos e partilhar as suas preocupações, o que contribui para uma melhor compreensão coletiva das questões éticas;
  • Atualizações regulares: Dada a rápida evolução no campo da IA e suas implicações éticas, asseguramos que as nossas sessões de formação sejam regularmente atualizadas e adaptadas para incorporar os mais recentes avanços e novas considerações éticas.

Capacitação para denúncias

Reconhecemos a importância de um ambiente onde cada funcionário da Ayming se sinta encorajado e capacitado para reportar quaisquer preocupações relacionadas com a conformidade com os princípios éticos da IA. É assim que promovemos isso:

  • Comunicação Aberta: Criamos uma cultura de comunicação aberta dentro da nossa organização, onde os funcionários da Ayming são incentivados a expressar as suas preocupações e levantar questões sobre a ética da IA sem medo de represálias;
  • Canal de Denúncias: Criamos um canal de denúncias dedicado e seguro, acessível a todos os funcionários da Ayming. Este canal permite o relato confidencial de quaisquer problemas ou potenciais violações dos princípios éticos da IA;
  • Proteção dos Denunciantes: Garantimos a proteção dos denunciantes contra qualquer forma de represália ou discriminação. Os relatos são tratados de forma confidencial e cada caso é investigado de forma completa e justa;
  • Sensibilizar para a importância da denúncia de irregularidades: Consciencializamos os nossos colaboradores sobre a importância da denúncia de irregularidades e como esta contribui para a manutenção de elevados padrões de ética e responsabilidade na nossa organização.

7. Utilização da Inteligência Artificial

Utilização diária: IA para uso pessoal e diário

7.1.1.Descrição de uso

A IA está integrada nas nossas ferramentas de TI diárias para nos ajudar a economizar tempo e a melhorar a qualidade do nosso trabalho pessoal. Isto inclui escrever texto, converter digitalizações em texto, traduzir e obter informações sobre tópicos úteis a partir do ChatGPT, entre outros.

7.1.2.Regras Específicas

Utilização sem dados confidenciais

Os funcionários da Ayming são incentivados a utilizar ferramentas de IA como ChatGPT, Bard, Bing e outras para fins comerciais, educacionais ou pessoais, garantindo que tal uso não comprometa a confidencialidade dos dados da empresa. É essencial respeitar e garantir a segurança dos dados confidenciais.

Cada funcionário da Ayming é responsável e tem controle sobre o uso da IA para fins pessoais

Cada funcionário da Ayming é obrigado a ser responsável pelo uso da IA para fins pessoais. Isto significa que todos devem garantir o cumprimento das regras e políticas da empresa, nomeadamente no que diz respeito à confidencialidade, segurança e legalidade da utilização destas tecnologias.

Tolerância ao uso pessoal de IA conversacional

Os funcionários da Ayming têm permissão para usar ferramentas de IA de conversação, como ChatGPT, Bard, Bing e outras, de forma pessoal. Este uso pessoal deve ser realizado de forma responsável e não deve interferir nas tarefas essenciais do trabalho nem violar as políticas da empresa.

Verificação de fontes de IA

Ao usar IA para gerar informações, cada funcionário da Ayming é obrigado a verificar as fontes dos dados e do conteúdo produzido pela IA. Antes de validar ou distribuir qualquer informação gerada pela IA, o utilizador deve garantir que as fontes utilizadas pela IA são fiáveis, verificáveis e legítimas. Se as fontes de informação geradas pela IA não puderem ser verificadas ou parecerem suspeitas, o funcionário deverá tomar medidas adicionais para validar esses dados com fontes confiáveis e credíveis antes de usá-los ou compartilhá-los.

7.2. Utilização de IA para uso eficiente: IA para produtividade e criatividade nos nossos processos

7.2.1. Descrição de uso

A IA está incorporada nos nossos processos internos para aumentar a produtividade e estimular a criatividade. Isso inclui análise de dados, ajuda na redação de e-mails, geração de conteúdo com ChatGPT e muitas outras aplicações projetadas para otimizar os fluxos de trabalho.

7.2.2. Regras Específicas

  • Incentivo a usos não confidenciais

A utilização da IA é incentivada dentro da organização, desde que tais utilizações não envolvam dados confidenciais. Isto visa encorajar a adoção e exploração dos benefícios da IA em áreas onde a confidencialidade dos dados não é comprometida.

  • Responsabilidade do gestor

Cada utilização da IA é da responsabilidade do gestor responsável pelo processo interno em causa. Isto significa que o gestor é responsável por supervisionar e garantir que a IA seja utilizada de forma adequada e alinhada com as políticas da empresa.

  • Controlo de resultados pelo funcionário da Ayming

Cada funcionário da Ayming tem controlo sobre os resultados produzidos pela IA. Isto implica que têm autoridade para aceitar estes resultados, para modificá-los, se necessário, ou para rejeitá-los se considerarem que são inadequados. Esta autonomia garante que a IA seja utilizada de forma eficaz e adequada.

  • Aprendizagem do provedor de serviços respeitando a confidencialidade

O fornecedor de serviços de IA está autorizado a aprender com os dados submetidos, respeitando as políticas de confidencialidade da organização. Isto garante que a aprendizagem e a melhoria da IA ocorram no âmbito das regras de proteção de dados e privacidade.

7.3. Utilização de IA na prestação de serviços para os nossos clientes

7.3.1. Descrição de uso

A IA é utilizada na execução dos nossos serviços para os nossos Clientes. Isso inclui extrair informações relevantes de uma ligação telefónica, ajudar na elaboração de documentos, pesquisar o contexto tecnológico para projetos inovadores e muitas outras aplicações.

7.3.2. Regras Específicas

  • Incentivo ao uso com controlo mais rígido

A utilização da IA é incentivada, mas está sujeita a controlos mais rigorosos, nomeadamente no que diz respeito aos dados confidenciais e pessoais dos Clientes. Isto realça a importância de promover a utilização da IA, assegurando simultaneamente uma maior vigilância no que diz respeito aos dados sensíveis.

  • Responsabilidade do Diretor da Linha de Negócios

Cada utilização da IA é está sob a responsabilidade do diretor da linha de negócios correspondente. Isto significa que esse Diretor é responsável por supervisionar a utilização adequada da IA na sua área (Linha de Negócios) e por garantir o cumprimento das políticas da empresa e do estado da arte relativo à missão que está a ser desempenhada.

Quando for apropriado, o Comité de Governação da IA pode solicitar a realização de uma análise de risco no que diz respeito à sensibilidade e ao impacto da utilização da IA.

  • Garantia de confidencialidade e segurança dos modelos de IA

Os modelos de IA utilizados devem garantir total confidencialidade dos dados. Além disso, a sua execução deve ser segura e rastreável, garantindo que os dados e processos estão adequadamente protegidos e que qualquer utilização é transparente e verificável.

  • Restrição à aprendizagem do prestador de serviços de IA

O provedor de serviços de IA está explicitamente proibido de aprender com os dados enviados pelos clientes. Esta restrição visa proteger a confidencialidade e propriedade dos dados, evitando qualquer utilização dos dados dos clientes para fins de aprendizagem ou melhoria de serviços sem o consentimento explícito dos clientes.

7.4. Utilização em software: IA como funcionalidade avançada no nosso software SaaS

7.4.1. Descrição de uso

A IA está incorporada como uma funcionalidade no software que desenvolvemos para nossos clientes. Isto inclui funcionalidades avançadas baseadas em IA, oferecendo novas possibilidades de análise, previsão, recomendação e automatização.

7.4.2. Regras Específicas

  • Incentivo ao uso com controlo mais rígido

A utilização da IA é incentivada, embora esteja sujeita a controlos mais rigorosos, especialmente no que diz respeito a dados confidenciais. Isto significa que a organização incentiva o uso de IA, mas com especial vigilância para os dados sensíveis.

  • Responsabilidade do Gestor de Produto

Cada utilização da IA está sob a responsabilidade do Gestor de Produto responsável pela funcionalidade onde está instalada. Isto garante que um gestor direto seja responsável pela utilização adequada da IA para essa funcionalidade específica.

  • Transparência e controle para o utilizador final

O utilizador final (funcionários da Ayming ou funcionários do Cliente) é informado da utilização de um modelo de IA e tem controle sobre os resultados por ele produzidos. O objetivo é garantir a transparência e permitir que o utilizador final interaja com os resultados da IA de maneira informada.

  • Gestão e auditoria pelo administrador do cliente

O administrador do cliente tem a capacidade de gerir e auditar a utilização da IA na aplicação. Isto garante que os clientes tenham controlo sobre o uso da IA no seu próprio ambiente e possam realizar auditorias para garantir conformidade e segurança.

  • Confidencialidade e rastreabilidade de modelos de IA

Os modelos de IA utilizados devem garantir total confidencialidade dos dados e a sua execução deve ser segura e rastreável. Isso garante que os dados estejam protegidos e que cada execução de IA seja rastreável por motivos de segurança e conformidade.

  • Restrição à aprendizagem do prestador de serviços

O prestador de serviços de IA não deve aprender com os dados apresentados pelos clientes, preservando assim a confidencialidade e a propriedade dos dados dos clientes e respeitando a sua privacidade.