Você se atreve a usar inteligência artificial para escrever anúncios de emprego melhores?

Você se atreve a usar inteligência artificial para escrever anúncios de emprego melhores?

Durante anos, falamos e escrevemos sobre como a maioria dos empregos em tecnologia não exige um diploma. No final de 2022, o governador de Utah anunciou que o estado não exigirá mais um diploma para a maioria dos empregos estaduais e, em vez disso, se concentrará na experiência. Vimos muitas empresas, como IBM, Google, Amazon, LinkedIn e milhares de outras, apresentarem políticas que dizem explicitamente que não exigem mais que os candidatos tenham um diploma de quatro anos. 

Muitos falaram sobre como as habilidades são mais importantes e como precisamos de um requisito baseado em habilidades. Um estudo recente do Cengage Group mostrou que 47% dos empregadores de tecnologia dizem que as credenciais de treinamento de habilidades são mais importantes ao considerar um candidato para uma posição inicial. Apenas 26%dizem que os diplomas universitários são impactantes, mas continuamos a ver 81% dos empregos de tecnologia exigindo um diploma.

Por que existe tal contradição? Por que tantos indivíduos talentosos, habilidosos, experientes e diversificados estão sendo excluídos? Bem, é a falta de um diploma universitário; “Muitos empregadores ainda exigem um diploma de quatro anos porque não atualizaram ou inovaram a forma como selecionam talentos e avaliam seu potencial”, de acordo com o estudo publicado pelo Cengage Group.

Ferramentas de inteligência artificial

Estamos ouvindo cada vez mais sobre uma série de ferramentas de inteligência artificial (IA) que podem ajudar com tarefas demoradas ou até mesmo escrever a redação perfeita, ou talvez o trabalho de pesquisa perfeito.

Parece uma ótima ideia aproveitar o poder do big data e da tecnologia de inteligência artificial para ajudar na tarefa de descrever uma vaga de emprego, extraindo de fontes massivas de dados para criar uma saída “perfeitamente” escrita.

O desafio, é claro, é que a IA está usando todos os dados disponíveis, bons e ruins, e se esses dados forem tendenciosos ou falhos, eles (e você) podem perpetuar essa falha ou viés.

Ao fazer uma consulta simples no mecanismo de IA ChatGPT: “Gerar um anúncio de emprego ideal para um especialista em segurança cibernética”, em 10 segundos se tem uma resposta; ela incluía um mínimo de bacharelado ou mestrado e cinco anos de experiência. Você deve estar pensando: “devo ter feito algo errado com a minha pergunta. Vou tentar novamente”. Então, dessa vez acrescenta uma variante, adicionando as palavras “nível de entrada”.

Com a pergunta: “Gerar uma postagem de trabalho ideal para um especialista em segurança cibernética de nível de entrada”, mais uma vez, em cinco a 10 segundos, se tem uma resposta; ela incluía no mínimo bacharelado ou mestrado, sem experiência definida. Não muito melhor, pois certamente não é necessário um diploma para essa função de nível básico.

Fazendo mais uma nova pesquisa, dessa fez com a pergunta “Gerar um anúncio de emprego para um técnico de help desk de TI iniciante”, novamente, em apenas 10 segundos depois, o que ele produziu foi um anúncio de emprego de uma página lindamente escrito que foi formatado perfeitamente e incluiu um resumo, responsabilidades e histórico, incluindo que um diploma de bacharel não era necessário, mas era o preferido. No entanto, reduziu a experiência exigida de zero para dois anos.

Embora esse resultado tenha sido melhor, ainda é preocupante. Todos sabemos que um técnico de help desk iniciante não exige um diploma e, na maioria dos casos, até mesmo dizer que um diploma é recomendado ou preferido pode ser problemático.

Mas o que isso quer dizer?

O que isso está nos dizendo? Alguns mecanismos de IA pesquisam milhões de ofertas de emprego existentes e procuram os resultados de consenso; se a maioria das postagens históricas preferisse um diploma (com ou sem razão), a IA decidiu que um diploma é uma preferência. Outros mecanismos de IA chegam às respostas fazendo uma série de suposições, e é por isso que eles podem obter a resposta completamente errada.

Embora a IA e ferramentas como o ChatGPT possam ser úteis em algumas circunstâncias, a IA tem suas limitações, seja adivinhando respostas prováveis ​​ou usando dados falhos com viés do passado histórico, que continuará a repetir o viés no futuro.

Esta não é a primeira nem a última limitação da IA; temos casos após casos em que as ferramentas erraram muito. Você deve se lembrar de um projeto de IA que foi descartado na Amazon. A ferramenta foi desenvolvida para selecionar currículos e selecionar os cinco primeiros para entrevistas entre centenas, agilizando o processo de contratação. Verificou-se que a ferramenta não estava classificando os candidatos de maneira neutra em termos de gênero e havia ensinado a si mesma que os candidatos do sexo masculino eram preferíveis aos do sexo feminino.

Se quisermos melhorar nossa contratação, devemos fazer esse investimento em inovação para selecionar talentos em busca de habilidades e não depender de ferramentas de atalho. Embora a IA possa escrever um anúncio de emprego bonito, muitas vezes simplesmente usar práticas históricas que enfatizam os erros do passado.

Esteja informado e tenha cuidado com a possibilidade de danos reais. Imagine os riscos se as respostas fornecidas pelas ferramentas de IA estiverem erradas e as tratarmos como absolutas em situações críticas em que precisamos confiar em nossas ferramentas.

Texto traduzido da Forbes