Autor: Pedro Antunes, sócio de Direito Laboral na CCA Law Firm
É inegável que, atualmente, a Inteligência Artificial (IA) proporciona uma automatização útil para tarefas que podem ser normalizadas, mas que, necessariamente, implicarão um controlo rigoroso e de supervisão por parte dos trabalhadores, à medida que a tecnologia se continua a desenvolver e a aplicar.
Para proteger as organizações e regular o comportamento dos seus trabalhadores, que a ela acedem, as próprias empresas devem regulamentar a utilização da IA generativa nos locais de trabalho tendo, contudo, em consideração que, quanto mais a IA se integrar no funcionamento quotidiano de uma empresa, maior será a probabilidade de alguns sectores da força de trabalho se sentirem inseguros em relação ao futuro mercado de trabalho e às suas funções atuais.
Uma forma de responder às preocupações dos trabalhadores é através de uma comunicação clara sobre a utilização adequada da IA no trabalho e a importância contínua de uma supervisão atenta, do desempenho pessoal e do bom senso.
A alteração das atuais políticas de IT, ou a publicação de uma política de IA autónoma, permitirá aos empregadores fornecer orientações claras e garantir que os trabalhadores compreendem plenamente os benefícios e as potenciais armadilhas (incluindo potenciais ações disciplinares) que resultariam de uma utilização inadequada.
Uma área de preocupação, para muitos empregadores, é o risco de as informações comerciais confidenciais serem inadvertidamente reveladas através da utilização da IA. Os trabalhadores podem querer utilizar plataformas de acesso fácil, como o ChatGPT, que não oferecem o mesmo nível de segurança que um pacote de IA personalizado com acesso limitado.
São aconselháveis orientações rigorosas para garantir que os trabalhadores não carregam ou partilham quaisquer dados ou documentos que revelem informações sensíveis e/ou confidenciais sobre o empregador, os colaboradores ou os clientes. Desta forma, os trabalhadores devem ser alertados para as suas próprias obrigações contratuais e para as que decorrem da legislação relativa à proteção de dados, como o RGPD.
Uma avaliação de risco que analise a utilização da IA é outra boa forma de identificar e resolver potenciais problemas numa fase inicial. As novas tecnologias devem também ser acompanhadas de formação dos trabalhadores para garantir uma abordagem coerente.
Os processos internos de RH são também uma área de negócio óbvia em que a IA pode oferecer apoio. A utilização da IA em relação ao recrutamento está a aumentar, mas podemos incluir outros exemplos, como o processo de seleção de despedimentos e a gestão do desempenho. O próprio ChatGPT sugere que a IA pode ajudar a definir objetivos para os trabalhadores, acompanhar o desempenho e produzir avaliações de feedback.
Quando se trata de decisões importantes, como a seleção do melhor candidato para uma determinada função, os empregadores devem ter em conta a possibilidade de enviesamento dos dados e da filtragem da informação em função de escolhas linguísticas específicas, padrões de comportamento e características pessoais.
Para além da possibilidade de se poder perder candidatos excecionais, os desafios legais são uma possibilidade se as decisões puderem ser consideradas discriminatórias com base numa caraterística protegida ao abrigo da Lei da Igualdade (como a idade, o sexo, a raça ou a deficiência).
O facto de a IA poder ter ajudado uma entidade patronal a tomar uma decisão relativa aos trabalhadores não prejudica a sua proteção jurídica.
Para aproveitar os benefícios da IA, os empregadores são aconselhados a manterem-se a par dos desenvolvimentos tecnológicos que podem impulsionar a sua atividade e garantir que se mantêm competitivos. Ao investir tempo, agora, para entender completamente as implicações do uso de IA pelos colaboradores, será muito mais fácil abordar as preocupações e minimizar os riscos legais, éticos e de relações com os trabalhadores que daí poderão advir.