IA-Moral?: Explorando a Ética e a Moralidade na Inteligência Artificial
Palavras-chave:
Inteligência Artificial, Ética, Integridade AcadêmicaResumo
A popularização da Inteligência Artificial (IA) nas últimas décadas trouxe benefícios significativos para diversos setores, como a automação industrial e o desenvolvimento acadêmico. Contudo, com o aumento do uso dessas tecnologias, surgem questões éticas e de originalidade que são especialmente desafiadoras no contexto acadêmico. A IA possibilita a criação de conteúdos, análises e conclusões com uma facilidade antes inimaginável, o que levanta dúvidas sobre a autenticidade e a responsabilidade na utilização dessas ferramentas. Esse cenário evidencia o problema do uso indiscriminado da IA em atividades acadêmicas, o que pode comprometer a integridade e a originalidade dos trabalhos, além de fomentar debates sobre os limites éticos do uso dessas tecnologias.
O protótipo IA-Moral? foi desenvolvido com o objetivo de promover uma reflexão crítica sobre os impactos éticos e morais da IA no ambiente acadêmico. A proposta busca contribuir para um entendimento mais consciente sobre o papel da IA na construção do conhecimento, essencial para a formação de indivíduos preparados para lidar de forma ética com essas ferramentas. A criação do aplicativo surgiu da necessidade de uma solução prática e educativa, capaz de auxiliar estudantes e pesquisadores na identificação de práticas responsáveis e no recebimento de feedback sobre o uso adequado da IA.
O IA-Moral? funciona como uma plataforma interativa e segura, projetada para que os usuários explorem e compreendam os limites éticos e morais associados à IA. Desenvolvido no contexto acadêmico do Instituto Federal do Paraná, o aplicativo oferece um questionário adaptativo que orienta os usuários em um percurso de autoavaliação, gerando feedbacks personalizados com base nas respostas fornecidas. Essa abordagem busca auxiliar os usuários na percepção das implicações éticas relacionadas ao uso da IA, incentivando um uso mais consciente e responsável.
Além do questionário, o IA-Moral? disponibiliza conteúdos de apoio, referências e exemplos práticos, funcionando como uma base educacional que estimula o pensamento crítico e a compreensão do uso ético da IA. Por meio dessa abordagem, o protótipo se propõe a não apenas informar, mas também educar e fomentar o comportamento ético dos usuários, destacando a relevância de um uso responsável da IA tanto na produção acadêmica quanto na sociedade em geral.
O avanço da IA destaca questões de autoria e autenticidade, gerando debates sobre originalidade e valor do trabalho acadêmico. [Araujo 2016] argumenta que ferramentas de automação desafiam as noções de criatividade e aprofundamento intelectual, aspectos fundamentais para a avaliação acadêmica. Segundo o autor, a dependência crescente de algoritmos para gerar conteúdo pode alterar a percepção sobre a relevância das produções acadêmicas, reforçando a necessidade de repensar critérios de avaliação que garantam o aprendizado e o desenvolvimento crítico dos estudantes.
O treinamento das IAs também levanta discussões sobre a inclusão de princípios éticos nos modelos. [Franco 2024] enfatiza que a criação de "agências artificiais" requer a simulação de normas e interações humanas, conferindo aos sistemas uma base moral limitada. Esse processo suscita preocupações sobre como as respostas das IAs refletem ou ignoram normas sociais e éticas, especialmente em interações educacionais. [Sá 2023] ressalta que o uso massivo de dados e redes neurais para geração de conteúdos exige maior transparência no treinamento dos modelos. Ele destaca a importância de uma base ética sólida que guie as interações das IAs, evitando vieses e assegurando confiabilidade.
[Franco 2024] também aborda o problema da opacidade dos algoritmos, que pode prejudicar a confiança dos usuários nos resultados gerados. Decisões automatizadas são frequentemente aceitas sem questionamento, o que representa um desafio no ambiente acadêmico, onde a previsibilidade e a transparência são essenciais. A falta de explicações claras sobre o funcionamento dos algoritmos reforça a necessidade de uma IA explicável, capaz de fornecer justificativas compreensíveis para suas decisões. A explicabilidade contribui para um uso mais consciente da IA, promovendo uma integração ética e segura da tecnologia na educação e em outras áreas do conhecimento.
O desenvolvimento do protótipo IA-Moral? envolveu a criação de um aplicativo interativo no FlutterFlow, projetado para explorar questões éticas e de originalidade no uso de Inteligência Artificial. Para garantir uma experiência moderna e convidativa, o aplicativo foi concebido com um design visual que inclui fundo preto e gradientes em roxo e azul.
A base teórica do desenvolvimento incluiu uma revisão abrangente sobre ética e moralidade no uso da IA, com pesquisas em artigos acadêmicos, publicações de conferências e diretrizes de grandes empresas do setor. As fontes selecionadas ofereceram um panorama confiável que sustentou a proposta, garantindo a relevância dos conteúdos incluídos no aplicativo.
O questionário interativo foi estruturado manualmente em múltiplas telas, nas quais cada escolha do usuário direciona a trajetórias específicas que culminam em feedbacks personalizados. Essa funcionalidade permite uma análise preliminar do comportamento ético no uso de IA, ainda em fase de prototipagem. Para segurança e armazenamento de dados, o Firebase foi utilizado com banco de dados NoSQL.
O protótipo IA-Moral? foi apresentado na XII Feira de Inovação Tecnológica do IFPR (IFTECH) – 2024 – Campus Paranavaí, onde foi testado por alunos de diversas instituições de ensino e por avaliadores do evento. Durante as demonstrações, a recepção foi amplamente positiva, destacando o valor do aplicativo em uma sociedade que enfrenta os desafios trazidos pelas novas tecnologias.
Diversos professores ressaltaram o grande potencial do IA-Moral?, apontando que a ferramenta pode ser ampliada para atender a diferentes públicos e cenários, contribuindo de maneira significativa para a conscientização sobre o uso ético da Inteligência Artificial. Alunos também demonstraram interesse na funcionalidade do aplicativo, reconhecendo sua aplicabilidade no contexto educacional e acadêmico.
Os resultados obtidos indicam que o IA-Moral? está alinhado com as demandas atuais de um mundo cada vez mais integrado à tecnologia, oferecendo uma base sólida para promover reflexões críticas sobre ética e originalidade no uso da IA. Apesar de ser um protótipo, o aplicativo já demonstra um potencial expressivo de expansão, tanto em termos de funcionalidades quanto em sua aplicação em outras áreas do conhecimento.
Conclui-se que o IA-Moral? não é apenas uma ferramenta para discussão acadêmica, mas também um ponto de partida para a criação de soluções tecnológicas que promovam o uso responsável da IA. Com o desenvolvimento contínuo, a plataforma poderá ser aprimorada para alcançar um impacto ainda maior, contribuindo para a formação de indivíduos preparados para lidar de forma ética com as inovações tecnológicas.
Referências
Araujo, M. (2016). O uso de inteligência artificial para a geração automatizada de textos acadêmicos: plágio ou meta-autoria? LOGEION: Filosofia da Informação, 3(1):89–107.
Franco, M. (2024). Qual É o papel da Ética na Ética da inteligência artificial? Kínesis Revista de Estudos dos Pós-Graduandos em Filosofia, 15(39):276–299.
Sá, M. L. D. (2023). Riscos na geração de conteúdo através da inteligência artificial generativa à luz dos institutos do direito à imagem, direito autoral e proteção de dados no regime civil brasileiro de 2002. Repositório Institucional da UFPB - Campus I Centro de Ciências Jurídicas (CCJ)
Downloads
Publicado
Edição
Seção
Licença

Este trabalho está licenciado sob uma licença Creative Commons Attribution-ShareAlike 4.0 International License.
Os autores mantêm os direitos autorais sobre os trabalhos publicados nesta revista, concedendo à SETIF o direito de primeira publicação. O conteúdo está licenciado sob uma Licença Creative Commons Atribuição-CompartilhaIgual 4.0 Internacional (CC BY-SA 4.0), que permite copiar, redistribuir, remixar, transformar e criar a partir do material para qualquer finalidade, inclusive comercial, desde que seja atribuída a autoria e feita referência à publicação original nesta revista.
Os autores concordam que qualquer reutilização de seu trabalho por terceiros deve incluir o nome dos autores, o título do artigo, o nome da revista, o DOI (quando disponível) e o link para a licença.
É permitido e incentivado que os autores disponibilizem a versão publicada do trabalho em repositórios institucionais, sites pessoais ou redes acadêmicas imediatamente após a publicação, com menção à publicação inicial nesta revista.