O surgimento de imagens sintéticas geradas por IA desencadeou desafios éticos e
jurídicos significativos que estão remodelando o cenário digital. Essas imagens sintéticas, capazes de imitar a realidade, levantam preocupações críticas relacionadas a vieses em dados, à responsabilização das plataformas e à erosão da privacidade e do consentimento.
À medida que as tecnologias de IA proliferam, questões como desinformação, difamação e manipulação da confiança pública tornam-se cada vez mais proeminentes, exigindo atenção urgente de legisladores e especialistas em ética. As implicações desses desenvolvimentos se estendem a vários setores, incluindo saúde, finanças e comunicação política, ressaltando a necessidade de estruturas robustas para governar o uso ético de mídias sintéticas e mitigar seus potenciais danos.
Do ponto de vista ético, o uso indevido de imagens sintéticas pode perpetuar estereótipos prejudiciais e amplificar a desinformação, especialmente em contextos sensíveis. As plataformas que hospedam esse tipo de conteúdo são instadas a estabelecer e aplicar diretrizes que promovam o uso responsável e combatam a disseminação de imagens enganosas ou prejudiciais. Além disso, como as imagens de indivíduos estão cada vez mais sujeitas ao uso não autorizado, às preocupações com violações de privacidade e a falta de consentimento são questões urgentes que devem ser abordadas para proteger os direitos individuais e a confiança pública nas mídias digitais.
Do ponto de vista jurídico, o cenário em torno do conteúdo gerado por IA permanece complexo e, em grande parte, desregulamentado. As leis tradicionais de propriedade intelectual têm dificuldade em acomodar as nuances da autoria não humana, gerando incertezas quanto à propriedade e à responsabilização. Além disso, os desafios de determinar a responsabilidade em casos em que os sistemas de IA causam danos — como em cenários de tomada de decisão autônoma — ilustram a necessidade urgente de novos arcabouços jurídicos que possam abordar efetivamente essas questões emergentes. A incapacidade das leis atuais de abranger totalmente as ramificações da tecnologia de IA contribui para um crescente senso de urgência entre os legisladores em adaptar e desenvolver as regulamentações existentes.
À medida que a sociedade enfrenta esses desafios éticos e legais, o diálogo
contínuo entre as partes interessadas – incluindo tecnólogos, formuladores de políticas e especialistas em ética – é vital para estabelecer padrões e melhores práticas. Esse esforço colaborativo visa garantir que os avanços em imagens sintéticas geradas por IA aumentem a criatividade e a inovação, salvaguardando, ao mesmo tempo, os direitos individuais e os valores sociais. O resultado dessas discussões moldará não apenas o futuro da mídia sintética, mas também o panorama ético da comunicação digital como um todo.
O surgimento de imagens sintéticas geradas por IA apresenta uma miríade de desafios éticos que exigem consideração e governança cuidadosas. Uma das principais preocupações é o potencial de vieses inerentes aos dados sintéticos, que podem levar a resultados injustos em diversas aplicações, particularmente em áreas sensíveis como saúde e finanças. À medida que os dados sintéticos se tornam mais prevalentes, garantir a justiça e atenuar os preconceitos são essenciais para manter a confiança pública e proteger os direitos individuais.
Plataformas que utilizam imagens sintéticas devem lidar com suas obrigações éticas em relação à disseminação de conteúdo. A influência das normas comunitárias na disseminação de desinformação destaca a necessidade de essas plataformas criarem e manterem ativamente diretrizes éticas. A não observância dessa postura pode resultar na amplificação de conteúdo prejudicial, levando a repercussões sociais significativas. Assim, as plataformas devem adotar uma postura proativa no combate ao uso indevido de mídia sintética, garantindo que elas não contribuam para a erosão da verdade e da confiança nas comunidades
O uso ético de imagens sintéticas também está intimamente ligado a questões de privacidade e consentimento. Existem riscos significativos associados ao uso de dados pessoais sem a devida autorização, especialmente quando imagens sintéticas podem ser indistinguíveis das reais . Violações dos direitos de privacidade, como o rastreamento ou monitoramento de indivíduos sem consentimento, complicam ainda mais o cenário ético em torno das mídias sintéticas. À medida que os dados sintéticos continuam a evoluir, é fundamental que os padrões éticos priorizem os direitos individuais e promovam a transparência no uso de dados.
A capacidade das imagens sintéticas de enganar ou caluniar indivíduos suscita profundas preocupações éticas relacionadas à difamação e à falsa imagem. O potencial de danos causados por falsificações digitais reforça a necessidade de estruturas jurídicas que possam abordar tais questões de forma eficaz. Figuras públicas, em particular, podem ser vulneráveis a imagens sintéticas difamatórias, o que pode prejudicar significativamente a reputação e a confiança pública.À medida que se desenvolve o recurso legal para tais situações, será essencial equilibrar os direitos dos indivíduos com os interesses da liberdade de expressão e da criatividade na era digital.
O surgimento de imagens sintéticas geradas por IA deu início a uma miríade de desafios legais que interseccionam vários campos do direito, incluindo propriedade intelectual, responsabilidade, e marcos regulatórios. À medida que as tecnologias de IA evoluem, também evoluem as complexidades em torno do status legal e da responsabilização dos sistemas de IA e seus resultados.
Um dos principais desafios jurídicos envolve os direitos de propriedade intelectual (PI). As leis tradicionais de PI, como as proteções de direitos autorais e marcas registradas, baseiam-se na existência de um autor ou criador humano. Isso representa um dilema para obras geradas por IA, visto que os arcabouços jurídicos atuais não reconhecem entidades não humanas como autores. Consequentemente, o Escritório de Direitos Autorais dos EUA declarou que se recusará a registrar obras criadas sem intervenção humana, visto que a lei de direitos autorais foi elaborada para proteger “os frutos do trabalho intelectual” fundado na criatividade humana. Isso levanta questões sobre a propriedade e a atribuição de obras de arte criadas com IA generativa, que frequentemente incorpora elementos de obras existentes encontradas online, levando a potenciais reivindicações de violação.
À medida que os sistemas de IA se tornam cada vez mais autônomos, determinar a responsabilidade por suas ações representa desafios jurídicos significativos. Por exemplo, em cenários em que um veículo movido a IA se envolve em um acidente, a responsabilidade pode ser atribuída a várias partes, incluindo o fabricante, o desenvolvedor do software ou o usuário, dependendo do contexto. Essa ambiguidade destaca a necessidade de estruturas jurídicas específicas que abordem a responsabilização da IA e a necessidade de modelos de seguro que possam gerenciar os riscos associados à implantação da IA. O sistema de direito consuetudinário nos Estados Unidos historicamente se adaptou às inovações tecnológicas, sugerindo que poderia evoluir de forma semelhante para lidar com as complexidades jurídicas impostas pela IA.
Além das questões de propriedade intelectual e responsabilidade, o cenário regulatório em torno de conteúdo sintético gerado por IA continua repleto de desafios. Legisladores e reguladores estão cada vez mais focados na criação de padrões de autenticação de conteúdo para ajudar a distinguir entre conteúdo gerado por IA e conteúdo gerado por humanos, especialmente em áreas sensíveis como a comunicação política. No entanto, leis existentes, como a Seção 230 da Lei de Decência nas Comunicações, complicam esse esforço ao limitar a responsabilidade das plataformas por conteúdo criado por terceiros.
Os críticos argumentam que impor responsabilidade adicional às plataformas para monitorizar ou remover conteúdos sintéticos nocivos poderia infringir os direitos da Primeira Emenda e criar expectativas irracionais para os operadores das plataformas.
À medida que tribunais e legisladores enfrentam esses desafios legais, há um reconhecimento crescente das considerações éticas que acompanham a implantação de tecnologias de IA. O potencial de dano — seja pelo uso indevido de imagens sintéticas ou pelas consequências não intencionais da tomada de decisão autônoma — exige uma análise cuidadosa.
equilíbrio entre inovação e regulamentação. A natureza evolutiva da
tecnologia de IA exige um diálogo contínuo entre acadêmicos, profissionais e formuladores de políticas jurídicas para garantir que o sistema jurídico possa enfrentar adequadamente os desafios impostos por esses avanços.
5.Estudo Empírico e Casos Relevantes
Um dos casos mais emblemáticos no debate sobre o papel da Inteligência Artificial (IA) na propriedade intelectual é o caso Thaler, também conhecido como DABUS (Device for the Autonomous Bootstrapping of Unified Sentience). Processado pelo pesquisador americano Stephen Thaler, o caso questionava se um sistema de IA poderia ser legalmente reconhecido como inventor sob as leis de patentes de diversas jurisdições.
A Thaler entrou com pedidos de patente em diversos países — incluindo Estados Unidos, Reino Unido, União Europeia, Austrália e África do Sul — nomeando o sistema DABUS como inventor de duas criações específicas. A questão central era se uma entidade não humana poderia ser considerada autora de uma invenção para fins de proteção da propriedade intelectual.
Os tribunais, em sua maioria, concentraram-se na interpretação estatutária das regras de patentes, concluindo que a definição legal de “inventor” pressupõe a existência de uma pessoa física. No Reino Unido, o Tribunal de Apelação (2021) decidiu que apenas humanos podem ser reconhecidos como inventores. Decisões semelhantes foram proferidas pelo Escritório de Patentes e Marcas dos Estados Unidos (USPTO) e pelo Escritório Europeu de Patentes (EPO), ambos reafirmando que o conceito jurídico atual de autoria não abrange sistemas autônomos. A África do Sul foi a única jurisdição a aceitar excepcionalmente o registro da IA listada como inventora, devido a uma lacuna processual em sua legislação.
O caso Thaler destacou a crescente tensão entre o avanço tecnológico e as estruturas jurídicas tradicionais. A falta de personalidade jurídica da IA a impede de deter direitos de propriedade, levantando questões sobre a titularidade de criações automatizadas e a atribuição de responsabilidade. Além disso, o caso demonstrou a necessidade urgente de harmonização regulatória internacional para abordar as inovações produzidas por sistemas autônomos de forma coerente e uniforme.
Em suma, o precedente estabelecido pelo caso Thaler não reconhece a IA como inventora, mas lança uma discussão essencial sobre a autoria artificial e os limites do Direito da Propriedade Intelectual à luz da crescente autonomia das máquinas.
A tecnologia deepfake apresenta inúmeros dilemas éticos e legais, especialmente no que diz respeito à desinformação e ao potencial de uso indevido. Por exemplo, deepfakes têm sido usados para criar vídeos enganosos de figuras públicas, o que pode resultar em graves danos à reputação e levantar questões sobre difamação e alegações falsas.Os inúmeros processos judiciais em curso refletem os desafios que os demandantes enfrentam para provar que as suas imagens foram apropriadas indevidamente em conteúdos gerados por IA, uma vez que as alegações bem-sucedidas exigem frequentemente provas de que dados protegidos por direitos de autor ou privados foram utilizados no treino da ferramenta de IA.
Em resposta ao crescente uso indevido de deepfakes, vários estados promulgaram leis que abordam esse problema. A Califórnia, por exemplo, estabeleceu regulamentações contra deepfakes que interferem em eleições ou envolvem pornografia não consensual.Além disso, os esforços legislativos federais, como a proposta de Lei de Responsabilidade DEEPFAKES, indicam um reconhecimento crescente da necessidade de um quadro regulamentar para abordar a utilização maliciosa de conteúdos gerados por IA.
A proliferação de vídeos deepfake também levantou preocupações sobre seu impacto psicológico em indivíduos falsamente retratados em situações comprometedoras. As vítimas, incluindo figuras públicas e cidadãos comuns, podem sofrer sofrimento emocional significativo devido à desinformação disseminada por essas imagens geradas por IA.Batalhas judiciais em torno de alegações de difamação são cada vez mais comuns, visto que o número de vídeos deepfake continua dobrando a cada seis meses, complicando ainda mais o cenário jurídico.
Os desafios éticos impostos pela tecnologia de IA vão além das ramificações legais. Por exemplo, os deepfakes podem ser usados como armas para influenciar a opinião pública ou enganar indivíduos, levantando sérias preocupações sobre seu potencial de uso indevido deliberado. Os desafios éticos impostos pela tecnologia de IA vão além das ramificações legais. Os casos que envolvem deepfakes que servem para envergonhar ou desacreditar indivíduos, muitas vezes sob o pretexto da sátira, complicam o panorama jurídico e desafiam as proteções existentes da Primeira Emenda.
Os avanços tecnológicos desempenham um papel crucial na abordagem dos desafios éticos e legais impostos pelas imagens sintéticas geradas por IA. Diversas estratégias e ferramentas estão sendo desenvolvidas para aprimorar a detecção, a autenticação e a regulamentação de conteúdo gerado por IA, mitigando assim os riscos associados à desinformação e ao uso indevido.
Um dos principais focos da pesquisa atual é o aprimoramento dos métodos de detecção de conteúdo gerado por IA, particularmente deepfakes. Estudos demonstraram que modelos de detecção de código aberto frequentemente apresentam quedas significativas de desempenho quando testados em conjuntos de dados diversos, destacando a necessidade de ferramentas de detecção aprimoradas que possam corresponder à precisão de especialistas forenses treinados. Ferramentas como o benchmark Deepfake-Eval-2024 estão sendo desenvolvidas para avaliar a eficácia de diversos sistemas de detecção, incorporando uma ampla gama de mídias manipuladas.
Para combater o uso indevido de imagens e vídeos sintéticos, tecnologias que garantam a procedência e a autenticação da mídia são essenciais. A implementação de arquiteturas de segurança robustas, incluindo procedência durável da mídia e marcas d’água, ajuda a identificar a origem do conteúdo midiático e garante sua integridade. Esses métodos não apenas auxiliam na verificação da autenticidade, mas também no combate à disseminação de desinformação, fornecendo indicadores claros da origem do conteúdo.
Agências governamentais e empresas privadas também estão implementando ferramentas de suporte de IA para combater atividades fraudulentas relacionadas a conteúdo gerado por IA. Ao integrar sistemas baseados em IA que analisam padrões e uso da linguagem, as organizações podem aprimorar a moderação de conteúdo, a verificação de fatos e a detecção de informações falsas. Essa abordagem proativa é vital para a proteção contra os potenciais danos causados pelo uso malicioso de tecnologias de IA.
O estabelecimento de padrões para o uso responsável de mídias geradas por IA em toda a indústria é fundamental para abordar questões éticas. Esses padrões visam garantir que a tecnologia de IA seja utilizada de forma a respeitar os direitos humanos e a defender práticas éticas. Esforços colaborativos entre as partes interessadas, incluindo empresas de tecnologia, governos e a sociedade civil, são cruciais para o desenvolvimento desses padrões e o fomento de uma cultura de responsabilidade na indústria de IA.
À medida que os sistemas de IA utilizam cada vez mais dados sintéticos, é essencial uma análise cuidadosa das leis de privacidade e proteção de dados. Técnicas como a privacidade diferencial, que adiciona ruído aos conjuntos de dados, podem mitigar os riscos de identificação associados a dados sintéticos. Essa abordagem é essencial para manter a conformidade com as estruturas legais e, ao mesmo tempo, aproveitar os benefícios dos dados sintéticos no desenvolvimento de IA..
O desenvolvimento de estruturas éticas robustas e padrões da indústria é fundamental para enfrentar os desafios impostos pela mídia sintética. Essas estruturas devem ser fundamentadas em direitos humanos, valores democráticos e princípios de justiça, transparência e responsabilização. Ao integrar a pesquisa acadêmica à formação e ao refinamento dessas estruturas, as organizações podem gerenciar melhor os riscos associados à mídia sintética e promover uma cultura de inovação ética.
Investir em pesquisa e desenvolvimento de contramedidas tecnológicas, como tecnologias de detecção e técnicas de marcação d’água, é essencial para mitigar os riscos associados às mídias sintéticas. Instituições acadêmicas e laboratórios de pesquisa desempenham um papel fundamental no avanço dessas inovações, necessárias para garantir que as mídias sintéticas sejam utilizadas de forma responsável.
Empoderar o público por meio de iniciativas de alfabetização midiática é crucial para navegar no cenário da mídia sintética. Programas educacionais devem se concentrar no pensamento crítico, na verificação de fontes e na compreensão da natureza do conteúdo gerado por IA. Essa responsabilidade não cabe apenas às organizações, mas também às instituições acadêmicas, que devem promover a alfabetização midiática para equipar os indivíduos com as habilidades necessárias para discernir entre conteúdo real e sintético.
À medida que a tecnologia de mídia sintética evolui, o equilíbrio entre inovação e considerações éticas torna-se cada vez mais importante. Abordar questões éticas, como vieses e o potencial de desinformação, deve ser priorizado para construir confiança nos sistemas de IA e garantir que a mídia sintética atenda aos melhores interesses da humanidade. Isto requer colaboração interdisciplinar e um compromisso com a governação ética a longo prazo no desenvolvimento da IA.
As plataformas de conteúdo devem reconhecer seu papel no estabelecimento de normas e padrões comunitários que regem a criação e a disseminação de mídia sintética. Ao definir padrões e identidades comunitárias, as plataformas podem influenciar significativamente os produtores de conteúdo e mitigar os riscos associados à mídia fabricada. A definição de normas deve se concentrar na responsabilização e na transparência para promover um ambiente digital mais seguro.
As implicações éticas da mídia sintética exigem diálogo e colaboração contínuos entre criadores, distribuidores e reguladores. Envolver as partes interessadas em discussões sobre autenticidade, privacidade e confiança do consumidor será essencial para o desenvolvimento de estratégias eficazes para enfrentar os desafios impostos pelo conteúdo gerado por IA. À medida que a tecnologia avança, o esforço coletivo para lidar com essas questões éticas definirá o futuro da mídia sintética.
O avanço das tecnologias de Inteligência Artificial e a consequente proliferação de imagens sintéticas marcam uma nova era nas relações sociais, jurídicas e éticas. Ao mesmo tempo em que ampliam as possibilidades criativas e comunicativas, essas inovações expõem lacunas significativas nas estruturas normativas e nos mecanismos de responsabilização existentes. O estudo desenvolvido evidencia que a ausência de regulamentação específica para o conteúdo gerado por IA gera insegurança jurídica e amplifica riscos relacionados à violação de direitos fundamentais, como a privacidade, a imagem e a honra.
A análise dos aspectos éticos demonstra que o uso indevido de imagens sintéticas pode perpetuar estereótipos, disseminar desinformação e corroer a confiança pública nas mídias digitais. Nesse sentido, a ética aplicada à tecnologia torna-se um pilar indispensável para orientar o desenvolvimento e o uso responsável da IA. O equilíbrio entre liberdade criativa e responsabilidade social é essencial para garantir que as inovações tecnológicas estejam alinhadas com os valores humanos e democráticos.
Sob o prisma jurídico, observa-se a necessidade urgente de adaptar os marcos regulatórios à nova realidade tecnológica. Casos como o de Stephen Thaler (DABUS) e os debates sobre deepfakes demonstram que as leis tradicionais de propriedade intelectual, responsabilidade civil e proteção de dados ainda não são plenamente capazes de responder aos desafios impostos pela autonomia das máquinas. Dessa forma, impõe-se uma revisão legislativa e doutrinária que contemple a autoria artificial, a responsabilização por danos e a autenticação de conteúdos digitais.
As soluções tecnológicas, como marcas d’água digitais, assinaturas criptográficas e sistemas de detecção de manipulação, apresentam-se como instrumentos complementares à tutela jurídica. No entanto, sua eficácia depende da implementação de padrões éticos e colaborativos entre governos, empresas e sociedade civil. A combinação entre inovação técnica e governança ética constitui o caminho mais promissor para mitigar os riscos decorrentes do uso indevido de mídias sintéticas.
Por fim, o futuro da regulação da inteligência artificial exige uma abordagem interdisciplinar, baseada na cooperação internacional e na educação digital. A promoção da alfabetização midiática e o fortalecimento da consciência ética coletiva são passos indispensáveis para a construção de um ambiente digital mais seguro, transparente e justo. Assim, o desafio contemporâneo não reside em conter a inovação, mas em garantir que ela se desenvolva de maneira responsável, preservando os direitos individuais e promovendo a integridade da comunicação na era da Inteligência Artificial.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6023:2023 – Informação e documentação – Referências – Elaboração. Rio de Janeiro, 2023.
BRASIL. Lei nº 9.279, de 14 de maio de 1996. Regula direitos e obrigações relativos à propriedade industrial. Diário Oficial da União, Brasília, DF, 15 maio 1996.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais. Diário Oficial da União, Brasília, DF, 15 ago. 2018.
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre a regulamentação da inteligência artificial no Brasil. Senado Federal, Brasília, DF, 10 dez. 2024.
BRASIL. Projeto de Lei nº 303, de 2024. Altera a Lei nº 9.279, de 14 de maio de 1996, para permitir que sistemas de inteligência artificial sejam reconhecidos como inventores em pedidos de patente. Câmara dos Deputados, Brasília, DF, 20 fev. 2024.
THALER, Stephen L. DABUS: an artificial intelligence machine invented. Maine Law Review, v. 75, p. 71-90, 2023. Disponível em:
https://digitalcommons.mainelaw.maine.edu/context/mlr/article/1767/viewcontent/vol 75_mlr_71.pdf. Acesso em: 12 out. 2025.
WHITECASE. AI Watch: Global regulatory tracker – Brazil. 6 jun. 2025. Disponível em: https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-br azil. Acesso em: 12 out. 2025.
SILVEIRA, D. B. Aspectos éticos que envolvem a inteligência artificial e as novas tecnologias. Quaestio Iuris, 2024. Disponível em: https://www.e-publicacoes.uerj.br/quaestioiuris/article/view/85951. Acesso em: 12 out. 2025.
SILVA, F. M.; ROCHA, A. A. Inteligência artificial: uso ético e inclusivo da IA no direito, suas aplicações no judiciário e seus impactos no acesso à justiça. Revista Jurídica Gralha Azul, v. 1, n. 28, 2025. DOI: 10.62248/jmxgpj49. Disponível em: https://revista.tjpr.jus.br/gralhaazul/article/view/191. Acesso em: 12 out. 2025.
MOLINA, A. C. Deepfake: a evolução das fake news. Revista Brasileira de Direito,
2022. Disponível em: https://rsdjournal.org/rsd/article/download/29533/25508/337988. Acesso em: 12 out. 2025.
RODRIGUES, L. C. Inteligência artificial, ética e celeridade no direito. Revista do CEJUR, 2024. Disponível em: https://revistadocejur.tjsc.jus.br/cejur/article/view/438. Acesso em: 12 out. 2025.
CASTRO JÚNIOR, M. A. Direito e pós-humanidade: quando os robôs serão sujeitos de direito. Curitiba: Juruá, 2013.
PORTO, J. Alinhamento de IA e o perigo do fingimento: riscos e desafios para o direito. Migalhas, 2025. Disponível em:
https://www.migalhas.com.br/depeso/418046/alinhamento-de-ia-e-o-perigo-do-fingim ento-riscos-e-desafios-para-o-direito. Acesso em: 12 out. 2025.
PORTO, J. IA, AGI e ASI: desafios jurídicos e propostas regulatórias para um futuro sustentável. Migalhas, 2025. Disponível em:
https://www.migalhas.com.br/depeso/418047/ia-agi-e-asi-desafios-juridicos-e-propos tas-regulatorias-para-um-futuro-sustentavel. Acesso em: 12 out. 2025.
PORTO, J. Direitos humanos e robôs: dignidade para entidades não-humanas.
Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/418048/direitos-humanos-e-robos-dignidade-p ara-entidades-nao-humanas. Acesso em: 12 out. 2025.
PORTO, J. Direito algorítmico: impactos jurídicos e éticos na era da IA. Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/418049/direito-algoritmico-impactos-juridicos-e -eticos-na-era-da-ia. Acesso em: 12 out. 2025.
PORTO, J. Neurodireito e inteligência artificial: avanços, riscos e desafios jurídicos. Migalhas, 2025. Disponível em: https://www.migalhas.com.br/depeso/418050/neurodireito-e-inteligencia-artificial-ava ncos-riscos-e-desafios-juridicos. Acesso em: 12 out. 2025.
GEBRU, T. Bias and Discrimination in AI: a cross-disciplinary perspective. arXiv, 2020. Disponível em: https://arxiv.org/abs/2008.07309. Acesso em: 12 out. 2025.
KLUGE CORRÊA, N.; GALVÃO, C.; SANTOS, J. W.; PONTES PINTO, E.; DEL PINO, C.; MAMBRINI, R.; GALVÃO, L.; TEREM, E.; OLIVEIRA, N. de. Worldwide AI Ethics: a review of 200 guidelines and recommendations for AI governance. arXiv, 2022. Disponível em: https://arxiv.org/abs/2206.11922. Acesso em: 12 out. 2025.
KAHN, A. A.; BADSHAH, S.; LIANG, P.; KHAN, B.; WASEEM, M.; NIAZI, M.;
AKBAR, M. A. Ethics of AI: A Systematic Literature Review of Principles and Challenges. arXiv, 2021. Disponível em: https://arxiv.org/abs/2109.07906. Acesso em: 12 out. 2025.
MANTELERO, A.; ESPOSITO, M. S. An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems. arXiv, 2024. Disponível em: https://arxiv.org/abs/2407.20951. Acesso em: 12 out. 2025.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.