Con respecto a la Ley de AI de la UE, de hecho, en esta era donde las cámaras están en todas partes y la inteligencia artificial se usa en todas partes, ¡cada vez más personas realmente se preguntan qué está pasando! Después de todo, ¿nadie quiere cada uno de sus movimientos, cada palabra y acción son miradas por esas máquinas y sistemas fríos? Pero a veces, para la seguridad pública y algunas gestión necesaria, estas tecnologías de monitoreo deben usarse … por lo que la Ley de AI de la UE dijo que es necesario regular este asunto y hacer que cumpliera, lo que se ha convertido en un punto clave y resalta que todos están muy preocupados por …
En pocas palabras, la Ley de la UE AI es la "Ley de Inteligencia Artificial" emitida por la UE. En este artículo, ha formulado muchas reglas y ha redactado muchas reglas para aquellas tecnologías de inteligencia artificial utilizadas en el campo de la vigilancia y el monitoreo, ¡que es la IA de la que vamos a hablar ahora! ¿Objetivo? Solo quiero decir que lo usa a voluntad, pero no puede usarlo a ciegas, y no puede infringir los derechos básicos de la gente común, como los derechos de privacidad, la dignidad personal, etc. Este proyecto de ley divide las aplicaciones de IA en varios niveles de riesgo. Por ejemplo, el monitoreo biométrico remoto bidireccional en tiempo real generalmente se considera un sistema de IA de "riesgo inaceptable", a menos que sea una razón de seguridad pública particularmente importante para el contraterrorismo, y debe ser estrictamente aprobado.
Si desea lograr un monitoreo que se ajuste a la Ley de AI de la UE, debe prestar atención a cualquier punto clave. Hablaré contigo:
1. Legalidad : es decir, cuando haces esta vigilancia, debes tener una base legal clara. ¡No puede decir que puede monitorear a quien desee y que pueda instalar una cámara donde quiera! O es una situación claramente permitida por la ley o el consentimiento de la persona que está siendo monitoreada; por supuesto, en algunos casos, también es posible acordar individualmente sin individuos individuales, pero en general, ¡la base legal no puede ser eliminada!
2. Necesidad : es decir, sus medidas de monitoreo deben ser realmente necesarias para lograr un propósito específico, como atrapar a las personas malas, prevenir delitos, proteger la seguridad pública, etc. No se puede decir que si puede resolverlo de una manera simple, debe usar este monitoreo de IA. ¡No es una panacea!
3. Principio proporcional : incluso si es necesario, el alcance, la intensidad y el tiempo de monitoreo deben controlarse solo para lograr el objetivo. No se puede hacer todos los días, no puede monitorizar demasiado, y no puede decir que para atrapar a un pequeño ladrón, puede escanear todas las esquinas y callejones de la ciudad en tiempo real. Eso definitivamente no funcionará. ¡La gente piensa que es demasiado!
4. Transparencia : es mejor hacer que la persona que se monitoree sepa que hay una vigilancia de IA aquí, por ejemplo, en muchos lugares, habrá un letrero al lado de la cámara para recordarle. Y si la decisión tomada por el sistema de monitoreo de IA afecta los derechos de una persona, esa persona también tiene derecho a conocer el asunto y saber cómo se tomó la decisión, ¡y tiene que dar una explicación! No puede ser misterioso.
5. Minimización y protección de datos : monitoree los datos recopilados, al igual que la recopilación de tesoros, siempre que sea suficiente, ¡no almacene todo en un desastre! Además, estos datos deben mantenerse bien, y se deben implementar el cifrado y el control de acceso. No lo filtre casualmente ni lo robe por alguien para que lo use indiscriminadamente. Si necesita eliminarlo después de su uso, ¡debe eliminarlo por completo!
¿Comparar con el monitoreo promedio y más informal?
Responsabilidades del sistema de IA en sí : antes, todos pueden haber prestado más atención a las responsabilidades de la persona o unidad de monitoreo de seguridad, pero dado que la IA se ha establecido, la Ley de AI de la UE ha enfatizado particularmente que todas las partes que diseñan, desarrollan e implementan este sistema de monitoreo de IA ¡también deben asumir las responsabilidades correspondientes! No puedes simplemente decir "problemas técnicos" y simplemente arrojar la culpa.
Qué hacer con esa IA de alto riesgo : si se determina que su sistema de monitoreo de IA es un tipo de "alto riesgo", habrá más problemas, pero no significa que no esté completamente disponible. Debe evaluar los riesgos usted mismo durante el desarrollo y obtener el informe de evaluación de las instituciones relevantes para garantizar que sean técnicamente estables y confiables, y no cometan errores en ningún momento. Por ejemplo, si reconoces a Zhang San como Li Si, ¿no traicionaría a una buena persona?
La supervisión humana es indispensable : la Ley de AI de la UE no le gustan las decisiones automatizadas que permiten que las máquinas tengan la última palabra y la gente no puede involucrarse. Por lo tanto, incluso si el sistema de monitoreo de IA analiza los resultados, en caso de que tome medidas al final, como si es realmente necesario detener y atrapar a las personas, ¡es mejor tener a los humanos para juzgar y verificar! Es asistida por la máquina, el humano o el dominante.
Algunas personas pueden hacer algunas preguntas de esto y aquello …
P: Soy solo una pequeña tienda. Instalé la vigilancia de IA con reconocimiento facial en mi tienda para evitar ladrones. ¿Se considera que esto cumple?
Respuesta: Bueno … ¡depende de la situación! En primer lugar, debes asegurarte de para qué sirve el reconocimiento de tu cara. Si es solo una grabación de video simple sin usar AI para identificar la identidad, entonces puede haber menos. Pero si el reconocimiento facial se usa para localizar con precisión a una persona, entonces debe pensar en él con cuidado. ¿Esto se ajusta a la "necesidad" y los "principios proporcionales"? ¿Se deben hacer los problemas de seguridad en su tienda con una biometría individual "avanzada"? ¿Hay alguna otra forma menos invasiva de prevenir a los ladrones? Y debe considerar la transparencia, y debe informar a los clientes que está utilizando el reconocimiento facial aquí.
P: La IA se usa en calles públicas para monitorear el tráfico y guiar el tráfico. ¿Este acto de la UE AI se preocupa por ello?
Respuesta: Debe estar a cargo de la gerencia, pero en este caso, el nivel de riesgo generalmente no es tan alto. Mientras los datos que recopilan no sean información de identificación personal, por ejemplo, contando cuántos "puntos" se mueven, en lugar de registrar "donde Zhang San fue hoy y donde pasó Li SI", si se diseñan correctamente, generalmente puede clasificarse en riesgos de bajo riesgo o restringidos, lo cual es relativamente más fácil de manejar, y solo anean algunas regulaciones básicas de transparencia y protección de datos.
Personalmente, creo que aunque la Ley de AI de la UE ha agregado muchas reglas y regulaciones a instituciones y compañías que desean usar la IA para monitorear, puede parecer un poco problemático, pero a la larga, todavía es bastante beneficioso para equilibrar el desarrollo tecnológico y los derechos de las personas ordinarias. Después de todo, la tecnología está muerta, la gente vive. Solo cuando se establecen las reglas podemos saber dónde están los límites, para que la tecnología realmente pueda servir a las personas, en lugar de oprimir a las personas a su vez. Aunque debe haber muchos detalles que se pulan al implementarlos en detalle …
Deja una respuesta