Federação dos Professores do Estado de São Paulo, 27 de fevereiro de 2024

22 de março de 2023| , ,

Cientistas divulgam 10 diretrizes para a Educação lidar com a Inteligência Artificial

Pesquisadores da USP propõem mudanças e atenção total voltada à Inteligência Artificial, como no uso do ChatGPT. “Uma situação de maior complexidade”. Entenda

[addthis tool="addthis_inline_share_toolbox_whwi"]

A Universidade de São Paulo (USP) iniciou uma discussão ampla sobre o uso da Inteligência Artificial (IA) em ambientes acadêmicos. Também em pauta, as implicações jurídicas do uso da IA sobre, por exemplo, direitos autorais. “Não estamos prontos agora para pensar em sanções pelo uso. Precisamos perceber como será utilizado”, sintetizou a professora da graduação e da pós-graduação da Faculdade de Direito de Ribeirão Preto (FDRP-USP) Cristina Godoy.

Para começar a discussão, o Instituto de Estudos Avançados (IEA-USP) realizou nesta terça-feira (21) um seminário sobre o software ChatGPT e Educação. “O ChatGPT ampliou as fronteiras da IA. Redige ensaios, resolve problemas, escreve poesia, estrutura algoritmos. Abre enormes possibilidades para toda a economia e a sociedade”, define o IEA.

Então, o jornalista e professor da USP Eugênio Bucci (na foto, destaque) leu 10 recomendações da instituição neste primeiro momento.

Dez diretrizes

Primeira: Que o o ChatGPT seja permitido e não banido. Bem como softwares semelhantes. A USP deve reforçar para a comunidade, em especial para professores, a necessidade de se identificar e de se explorar melhor, da melhor maneira possível, os benefícios deste tipo de inteligência artificial para o ensino e pesquisa.

Segunda: Que seja feito um esforço da disseminação da compreensão das principais características deste artefato e dos recursos semelhantes que virão em enxurrada. Bem como seu potencial para desenvolvimento de novos métodos de ensino e pesquisa. Incluindo projetos, instrumentos de avaliação, gravação de podcasts, por aí vai.

Terceira: Que todo e qualquer uso destes modelos avançados de IA contenham fontes e referências bibliográficas. Essa questão é chave, é a transparência do uso. A transparência permitirá diferenciação do que foi produzido pela IA e o que é específico do estudante, do pesquisador, do professor.

Quarta: Que as atividades acadêmicas, trabalhos escritos e recomendações tenham sempre sua autoria creditada às pessoas. Membros humanos que compõem a comunidade. Mesmo quando tiverem recursos tecnológicos utilizados com transparência.

Quinta: Que a universidade oriente e elabore guias práticos referentes ao uso do ChatGPT e semelhantes para estudantes da graduação e da pós-graduação conforme possibilidades de impacto nos processos de pensamento crítico e científico dos discentes.

Sexta: Que as unidades da USP incentivem os docentes a pensarem novas formas de ensino de pesquisa. Sempre procurando aprender com a criatividade da sala de aula com discernimento do corpo docente e discente, com experiência internacional. De modo que os recursos tecnológicos possibilitem a ampliação do conhecimento humano e não levem ao constrangimento destas capacidades.

Sétima: Que a comunidade busque métodos de avaliação em sala de aula que contribuam para que usos dessas novas tecnologias não se deem de forma passiva, acrítica, ou sem confirmação de resultados com fontes consolidadas e reconhecidas. Isso leva em conta que no atual estado da arte ainda não há ferramentas que permitam identificar de forma segura o que foi produzido pela IA e o que não foi.

Oitava: Que a universidade elabore materiais de discussão sobre questões de natureza jurídica decorrentes do uso do ChapGPT. Notadamente do que se refere a direitos autorais e proteção de dados pessoais. Já que não são citadas fontes utilizadas e não é possível verificar se dados pessoais foram coletados mediante consentimento livre e informado.

Nona: Que o código de ética da USP seja atualizado por comissão especificamente criada para avaliar o uso de ferramentas de IA para a escrita de trabalhos acadêmicos. Para reduzir problemas éticos advindos do emprego de sistemas como o ChatGPT.

Décima: Esta comissão que vai revisar o código de ética vai ampliar o debate na comunidade acadêmica sobre novas tecnologias, seu uso e eventuais impactos no processo educacional. De modo a contribuir para o esforço que a USP realiza para avançar como universidade, elevar o padrão de excelência na pesquisa, atualizar currículos e preparar estudantes e professores para lidarem com as rápidas transformações do século 21.

(publicado originalmente em Rede Brasil Atual 21/03 – https://bit.ly/3G5gGkL)

 

LEIA TAMBÉM:

O ChatGPT só é monstro se não houver um professor por perto – ‘Virar as costas para a nova tecnologia é se render a um ensino que despreza a evolução em sala de aula’, escrevem Lidiane Christovam e Iberê Moreno (foto), diretores do SinproSP, em artigo para abrir o debate sobre o uso da Inteligência Artificial no ambiente de ensino. Artigo publicado originalmente na revista Carta Capital.  Fepesp  20/03  https://bit.ly/3TsQSUS

 

Setor de educação agora é o principal alvo de ataques de ransomware  De acordo com levantamento da empresa de segurança BlackFog, o setor de educação é agora o principal alvo de ataques de ransomware, superando o governo e a saúde. Um ataque cibernético bem-sucedido a uma escola ou faculdade pode ter consequências devastadoras e de longo alcance.

Para Caio Sposito, country manager Brasil da Arcserve, o aumento do ensino remoto após a pandemia expandiu a superfície de ataque. “Antes, o e-learning não era tão difundido. Agora, com muito mais pessoas agora acessando redes educacionais de locais remotos, os cibercriminosos podem explorar muito mais pontos de entrada, colocando uma pressão adicional sobre as escolas”, detalha Caio. TIinside 21/03  https://bit.ly/3lxWkt7

Deixe seu comentário:

O seu endereço de e-mail não será publicado.

Copyright © 2018 FEPESP - Todos os direitos reservados.

Desenvolvido por: PWI WebStudio