Las cámaras utilizadas para la cámara del conductor que rompen las reglas del teléfono y el cinturón de seguridad son las reglas para proteger la privacidad, de acuerdo con el control de la transferencia de Queensland.
Se ha examinado un Sistema de Identificación de Inteligencia Artificial (IA) utilizada para detectar posibles cinturones móviles y de seguridad se ha examinado después de sugerencias que pueden violar la privacidad del conductor.
La Oficina de Auditoría de Queensland publicó un informe el miércoles sobre la gestión de los riesgos éticos de la IA, donde hizo múltiples recomendaciones en el departamento de transporte y las principales carreteras de Queensland.
Conozca las noticias con la aplicación 7News: Descargar hoy
La verificación encontró que TMR no detecta y administra efectivamente aspectos de los riesgos éticos asociados con el Sistema de Tecnología de Teléfonos Móviles (MPST) y que tenía que hacer más para garantizar que evalúe y administra los peligros morales de una “manera estructurada y consistente”.
Algunos riesgos morales reportados para los sistemas MPST fueron:
- Identificación de imagen inexacta por sistema AI
- Preocupaciones para proteger la privacidad de los conductores y los pasajeros
- Protocolos insuficientes de manejo de fotos y almacenamiento
- Insuficiente “hombre en el bucle” para garantizar la justicia de decisiones
Según el informe, se llevaron a cabo más de 208 millones de evaluaciones para posibles delitos móviles y de seguridad en nueve dispositivos en 2024, según el informe.
Alrededor de 137,000 posibles delitos fueron revisados por un humano, con 114,000 multas.
“TMR no detecta y administra efectivamente los aspectos de los peligros morales asociados con los teléfonos móviles y el reconocimiento tecnológico de la tecnología Satbelt AI y el sistema de IA General de IA”, Situaciones de control.
“TMR ha examinado algunos riesgos éticos para ambos sistemas, que se implementaron ante el Departamento de Servicios al Cliente, datos abiertos y pequeñas empresas y empresas familiares emitieron la política de gobierno de la IA.
“Esta política se ha implementado durante 12 meses. La TMR debe realizar evaluaciones de riesgos éticos completos para determinar si las estrategias de gobernanza y mitigación para estos sistemas enfrentan efectivamente los peligros”.


¿Cómo funciona?
TMR tiene un contrato con un proveedor externo que posee y administra el sistema AI y los dispositivos utilizados para capturar a los conductores que rompen las reglas del teléfono y la zona.
Cada delito posible es examinado por un hombre en el proveedor externo y luego por la Oficina de Ingresos de Queensland antes de emitir un aviso de incumplimiento por presuntos delitos
“(TMR) ha tomado medidas iniciales, pero no tiene visibilidad completa contra los sistemas de IA”, afirma el control.
“Todavía no ha creado arreglos de gobernanza integrales en todo el departamento para la supervisión efectiva de los riesgos éticos de los sistemas de IA.
“El fortalecimiento de su marco y los mecanismos de salvaguardia respaldarán la gestión consistente y responsable en toda la sección”.
TMR dijo que está desarrollando un “mapa estratégico de IA” desde 2028 para identificar y tratar las brechas en los riesgos de la ética y mejorar los arreglos de gobernanza.
“La implementación de mecanismos de salvaguardia en el curso de la gestión de riesgos éticos es necesario para garantizar una supervisión de sistemas de IA consistente y efectiva”, dijo TMR.
El ministro de Transporte, Brent Mickelberg, le dijo a Mail Courier que su departamento había aceptado todas las recomendaciones del informe.
“La privacidad de Queenslanders es algo que nos ponemos extremadamente serios”, dijo en la publicación.