Cómo Proteger las Elecciones  de 2024 de las Amenazas de la Inteligencia Artificial

Cómo Proteger las Elecciones de 2024 de las Amenazas de la Inteligencia Artificial

How to Protect the 2024 Elections from Threats of Artificial Intelligence

El gobierno y las firmas tecnológicas deben implementar acciones urgentes en esta nueva era

El próximo año marcará la primera temporada de campaña electoral para la presidencia donde habrá un amplio acceso a herramientas de inteligencia artificial (IA) que podrían amenazar la seguridad de nuestras elecciones, si no se efectúan los controles correspondientes.
El presidente Biden dio un excelente primer paso hace unos pocos días cuando firmó una orden ejecutiva el 30 de octubre que establece algunas normas para el desarrollo y el uso de la IA. Ahora el Congreso también debe tomar la iniciativa de regular la IA, y las firmas tecnológicas deben actuar para proteger las elecciones de cualquier amenaza generada por la IA, incluso sin que el Congreso se lo exija.
Como ya sabemos, la IA permite producir un audio con la voz de cualquier persona, generar imágenes realistas de cualquier persona haciendo prácticamente cualquier cosa, y potenciar las cuentas de bots en las redes sociales con excelentes habilidades conversacionales.
También tiene la capacidad de aumentar los intentos de phishing, la práctica de enviar correos electrónicos maliciosos para obtener información sensible o engañar al destinatario para que descargue software dañino, todo a una escala inmensa y con una rapidez extraordinaria.
Debido a la popularización de los bots conversacionales, o chatbots, el próximo año será también la primera temporada de elecciones en la que una grandísima cantidad de votantes verá información producida por IA. Ello aumenta considerablemente las oportunidades de difundir mentiras y desinformación entre las comunidades latinas y otros segmentos de la población votante, que podrían afectar la decisión del electorado de ir a votar o disminuir su confianza en los resultados de la votación.
El grupo de especialistas en seguridad que hemos entrevistado en el Brennan Center concuerda que las oficinas electorales de todo el país tienen la capacidad de combatir los riesgos de ciberseguridad para las elecciones de 2024. De hecho, la IA también ofrece herramientas poderosas para defender los sistemas electorales, pero solo si el gobierno se asegura de que las autoridades y trabajadores electorales tengan acceso a esas herramientas.
Los estados ya han comenzado a regular la IA y concentrar sus esfuerzos en la manipulación de contenidos. Por ejemplo, California prohíbe la distribución de contenidos engañosos, como imágenes, videos o audios de personas candidatas a elecciones que “parecen falsamente… ser auténticos” y que transmiten una “interpretación o impresión fundamentalmente diferente” a la realidad, con el objetivo de dañar la reputación de candidatos o engañar al electorado.
El Congreso debería seguir el ejemplo de estos estados y también brindarles a las autoridades electorales más soporte técnico para salvaguardar la infraestructura electoral. Asimismo, las plataformas de redes sociales, como X, también pueden ofrecer un proceso de verificación diferenciado para las cuentas de las autoridades electorales y reforzar los esfuerzos que ya efectuaron TikTok y Google para etiquetar claramente todo contenido generado por IA.
El potencial que tiene la IA para desinformar, suprimir votos e incitar a la violencia perjudica muchísimo más a las poblaciones con poco dominio del idioma inglés, escaso conocimiento sobre cómo funcionan las elecciones en los Estados Unidos y falta de experiencia digital.
En una carta enviada el mes pasado al Congreso, el Brennan Center y más de 85 otras organizaciones de interés público señalaron que muchas entidades y compañías ya están empleando sistemas de IA que producen resultados plagados de errores que amenazan las libertades civiles y las oportunidades económicas de la población estadounidense. Se ha arrestado y encarcelado a personas porque los sistemas policiales de reconocimiento facial utilizados arrojaron resultados incorrectos.
La carta exige la aplicación de reglamentaciones que procuren resolver los daños que la IA ya les está causando a varias comunidades en este momento, mucho antes de las próximas elecciones presidenciales.

 

The government and technology firms must implement urgent actions in this new era

Next year will mark the first presidential campaign season where there will be widespread access to artificial intelligence (AI) tools that could threaten the security of our elections if proper controls are not in place.
President Biden took a great first step a few days ago when he signed an executive order on October 30 that sets some standards for the development and use of AI. Now Congress must also take the lead in regulating AI, and tech firms must act to protect elections from any AI-generated threats, even without Congress requiring them to do so.
As we already know, AI makes it possible to produce audio with anyone’s voice, generate realistic images of anyone doing practically anything, and empower social media bot accounts with excellent conversational skills.
It also has the ability to increase phishing attempts, the practice of sending malicious emails to obtain sensitive information or trick the recipient into downloading harmful software, all on an immense scale and with extraordinary speed.
Due to the popularization of conversational bots, or chatbots, next year will also be the first election season in which a large number of voters will see information produced by AI. This significantly increases the opportunities for lies and disinformation to spread among Latino communities and other segments of the voting population, which could affect the electorate’s decision to vote or diminish their confidence in the voting results.
The group of security specialists we interviewed at the Brennan Center agree that election offices across the country have the ability to combat cybersecurity risks for the 2024 elections. In fact, AI also offers powerful tools to
defend systems elections, but only if the government ensures that electoral authorities and workers have access to those tools.
States have already begun to regulate AI and focus their efforts on content manipulation. For example, California prohibits the distribution of deceptive content, such as images, videos or audio of election candidates that “falsely appear… to be authentic” and that convey a “fundamentally different interpretation or impression” from reality, with the aim of harming the reputation of candidates or misleading the electorate.
Congress should follow the lead of these states and also provide election authorities with more technical support to safeguard election infrastructure. Additionally, social media platforms, such as
The potential for AI to misinform, suppress votes, and incite violence is far more detrimental to populations with poor English language skills, limited knowledge of how elections work in the United States, and lack of digital experience.
In a letter sent to Congress last month, the Brennan Center and more than 85 other public interest organizations noted that many entities and companies are already employing AI systems that produce error-ridden results that threaten civil liberties and economic opportunities. the American population. People have been arrested and jailed because police facial recognition systems used returned incorrect results.
The letter calls for regulations that seek to address the harms AI is already causing to communities right now, well before the next presidential election.

Share