
Fique a par das novidades
SubscreverNo passado dia 15 de abril publicou-se a segunda versão oficial do Guia Vivo sobre a utilização responsável de IA generativa na investigação (“IA generativa”) (Living Guidelines on the Responsible Use of Generative AI in research, acessível aqui), elaborada pela Comissão Europeia juntamente com o European Research Area Forum.
Na sequência da primeira versão, publicada a 20 de março de 2024, e com o objetivo de promover a integração segura e ética desta tecnologia nos processos de investigação, a Comissão lançou um documento “vivo” que será regularmente atualizado em função das novas necessidades, dos riscos emergentes e dos desenvolvimentos tecnológicos que possam ter impacto no ecossistema de investigação na UE.
Em primeiro lugar, o guia reconhece o enorme potencial da IA generativa para impulsionar o progresso científico. No entanto, alerta para uma série de riscos relevantes que devem ser abordados com especial atenção, como a possível geração em massa de desinformação, conflitos em matéria de proteção de dados, bem como outras utilizações não éticas que podem ter um impacto social ou ambiental negativo.
A primeira versão do guia já continha algumas recomendações fundamentais para os investigadores e as organizações de investigação. Entre elas, destaca-se a necessidade de garantir a transparência na utilização de ferramentas de IA generativa, observando princípios essenciais como a privacidade, a confidencialidade e o respeito pelos direitos de propriedade intelectual, tanto no que respeita aos dados utilizados para treinar os sistemas (inputs) como no que respeita ao conteúdo gerado (outputs).
Tanto a primeira como a segunda versão baseiam-se em quadros éticos e de integridade cientifica pré-existentes, em particular o Código Europeu de Conduta para a Integridade na Investigação elaborado pela ALLEA (All European Academies) e as Orientações Éticas para uma IA de Confiança da Comissão Europeia. A partir destas referências, a segunda versão desenvolve um conjunto de princípios chave destinados a orientar a utilização responsável da IA generativa no âmbito da investigação.
- O primeiro princípio é a fiabilidade, entendida como a necessidade de garantir a qualidade da investigação na sua conceção, metodologia, análise e utilização de recursos. Tal inclui a verificação e a reprodução dos resultados gerados pela IA, bem como a identificação e correção de enviesamentos ou desigualdades.
- Em segundo lugar, o guia evidencia a honestidade, que requer aplicar processos que garantam transparência e equidade em todas as fases do trabalho científico, incluindo a obrigação de informar sobre a utilização de ferramentas de IA generativa.
- O terceiro princípio é o do respeito, tanto pelas pessoas envolvidas (colegas, participantes, sociedade) como pelo ambiente (ambiente, património cultural) e pelos direitos de terceiros, como a privacidade, a confidencialidade ou a propriedade intelectual.
- Por último, é destacada a responsabilidade, que implica que os investigadores devem assumir as consequências de todo o processo de investigação, incluindo a sua gestão, supervisão e possíveis impactos sociais.
Com base nestes princípios, o documento formula uma série de recomendações destinadas a orientar as ações dos diferentes intervenientes e dirigidas especificamente a três perfis: investigadores, organizações de investigação e organismos de financiamento.
I. Recomendações para os investigadores
O Guia estabelece seis recomendações para quem participa diretamente no processo de investigação:
- Responsabilidade final: São responsáveis pela integridade e pela autoria dos conteúdos gerados pela IA, que nunca podem ser catalogados como sendo de coautoria.
- Utilização transparente: Devem ser transparentes quanto à utilização substancial da IA generativa, especificando a ferramenta, a versão e o modo de utilização, e refletindo-a na metodologia, caso tenha impacto nos resultados.
- Respeito pela privacidade, confidencialidade e propriedade intelectual: Não devem introduzir dados sensíveis ou não publicados em sistemas externos sem garantias de privacidade, e devem respeitar a proteção de dados e a propriedade intelectual.
- Cumprimento legal: Devem cumprir a legislação nacional, europeia e internacional aplicável, especialmente no que respeita à proteção de dados e à propriedade intelectual.
- Formação contínua: Tendo em conta a rápida evolução das ferramentas de IA generativa e o surgimento constante de novas utilizações, recomenda-se a formação contínua sobre o assunto e o intercâmbio de boas práticas, sempre que possível.
- Evitar o uso de atividades sensíveis: A IA generativa não deve ser utilizada substancialmente em atividades como a análise pelos pares ou a avaliação de propostas.
II. Organizações de investigação
São também formuladas várias recomendações às organizações de investigação com o objetivo de facilitar uma implementação transversal do Guia. São as seguintes:
- Promoção e apoio: Devem promover e orientar a utilização responsável da IA generativa, proporcionando formação e apoio regulamentar. Fomentar um ambiente em que os investigadores possam declarar a utilização de IA sem receio de consequências negativas. Fornecer diretrizes e apoio para assegurar o cumprimento de requisitos éticos e legais.
- Monitorização e análise: Monitorizar a utilização de IA na organização e antecipar possíveis abusos. Avaliar e promover a redução do impacto ambiental associado ao uso da IA.
- Integração do guia e ferramentas próprias: Integrar estas diretrizes nas suas políticas e, quando seja possível, usar ferramentas de IA geridas localmente para proteger dados e garantir a confidencialidade.
O objetivo de incluir as organizações de investigação no desenvolvimento das orientações é facilitar a sua implementação nestas instituições e garantir que os interesses dos envolvidos na investigação estão alinhados.
III. Organismos financiadores da investigação
O guia inclui também recomendações específicas dirigidas aos financiadores, conscientes do seu papel fundamental na promoção de práticas responsáveis no ecossistema científico, apesar de operarem ao abrigo de diferentes mandatos e quadros regulamentares. Estas recomendações procuram estabelecer uma base comum de normas em relação à utilização de inteligência artificial generativa:
- Promoção da utilização responsável: Devem encorajar a utilização ética e legalmente conforme da IA generativa em projetos financiados, integrando critérios de responsabilidade, integridade científica e respeito pelos direitos fundamentais.
- Revisão da utilização da IA generativa nos processos e transparência interna: Os organismos devem assegurar uma utilização transparente destas ferramentas nos seus procedimentos internos, especialmente na gestão administrativa ou de chamadas, sem comprometer a equidade e a confidencialidade. Sublinha-se a necessidade de manter o controlo humano e de assumir plena responsabilidade por essa utilização.
- Declaração de utilização por parte dos requerentes: Recomenda-se que os organismos financiadores exijam que os candidatos declarem qualquer utilização substancial de ferramentas de IA generativa, tanto na preparação das suas candidaturas como nas atividades de investigação propostas ou já realizadas. Este requisito deve ser acompanhado de um ambiente institucional que favoreça a transparência e permita aos investigadores comunicar essa utilização sem receio de serem prejudicados.
- Formação e acompanhamento contínuo: Os organismos financiadores devem apoiar ativamente programas de formação sobre a utilização responsável da IA, bem como acompanhar de perto a evolução tecnológica e regulamentar neste âmbito, para adaptar as suas políticas e critérios de financiamento aos novos desafios.
Em suma, a Comissão Europeia procura estabelecer um quadro comum de ação para investigadores, organizações de investigação e entidades financiadoras públicas e privadas. Dada a sua natureza evolutiva, será necessário seguir atentamente os futuros desenvolvimentos da Living Guidelines on the Responsible Use of Generative AI in Research, que serão regularmente atualizadas.
Fique a par das novidades
Subscrever