La Inteligencia Artificial ha demostrado tener una infinidad de usos, aunque también ha probado flaquear en muchos aspectos, y es que esta tecnología no tiene mucho tiempo de estar disponible para todo el público, por lo que apenas estamos explorando sus límites. Mientras que las personas interactuamos con dispositivos como Siri o Alexa, además de interfaces como ChatGPT, Microsoft Copilot o Meta AI, ahora disponible en WhatsApp, debemos conocer algunos temas de los que debemos mantenernos alejados.
Aquí te presentamos algunas de las preguntas que nuca debes hacerle a una IA, algunas por cuestiones morales, y otras que pueden poner tu seguridad o la de otros en juego.
1. Nunca preguntes sobre tu futuro
Recuerda que la Inteligencia Artificial es un asistente tecnológico para facilitarte el realizar ciertas tareas, pero no tiene poderes de clarividencia, por lo que no está programada para analizar eventos futuros, causas o consecuencias. Muchas personas han intentado preguntarle a algunos sistemas los números ganadores de la lotería o en que negocios invertir acciones, pero este tipo de plataformas no suelen estar equipadas para esto.
Así mismo, te recomendamos no preguntar acerca del futuro de una relación sentimental, problemas personales o laborales, pues esto puede poner en riesgo tu salud mental si el resultado no es el esperado.
2. Sobre tu economía personal
Decisiones tan importantes como tus finanzas personales pueden verse afectadas al consultar una Inteligencia Artificial, especialmente si esta involucra realizar acciones que requieran gastar dinero con la idea de obtener beneficios. Del mismo modo, muchos estafadores pueden estar detrás de este tipo de asistentes, y podrían cometer fraude con tus datos bancarios .
3. Información privada de terceros
Evita a toda costa pedir información personal de tras personas a algún modelo de lenguaje de IA, esto incluye su ubicación actual, clave del seguro social, cuentas bancarias o contraseñas. Muchos de los sistemas pueden ser vulnerables aún y recibir algún tipo de ciberataque , donde esta información puede ser utilizada para fines ilícitos.
4. Consejo médico
Si te sientes mal, consulta a un médico, pues los sistemas de IA solo pueden hacer breves recomendaciones para cuidados y remedios, los cuales podrían no tener ningún fundamento, o peor aún, poner en riesgo tu salud.
5. Borrar tu historial de búsquedas, cookies, fotos o aplicaciones
Si le pides a un sistema de Inteligencia Artificial que acceda a tus dispositivos personales para borrar información puede ser muy peligroso, pues esta podría eliminar otro tipo de archivos, y afectar las funciones de tu equipo.
6. Opinión personal
Los chatbots de IA no están habilitados para ejercer algún tipo de criterio, por lo que estos no podrán darte una opinión de ningún tema, esto puede resultar en información engañosa, o simplemente obtener una respuesta notificando el hecho de que el software no puede responder con opiniones.
7. Dilemas éticos
La Inteligencia Artificial no está sujeta a cuestiones morales y no distingue entre el bien y el mal, por lo que no es recomendable que realices preguntas acerca de situaciones relacionadas con la vida y la muerte , actos de moral o situaciones de complejidad ética, pues estas requieren de un criterio moral humano.
8. Apoyo moral o amistad
Si bien, puedes hablar por horas con un chatbot de Inteligencia Artificial, estos no generan vínculo alguno con sus usuarios, por lo que no existe algún tipo de amistad con ellos. El depender de apoyo moral de una IA puede llevarte a sufrir un deterioro en tu salud mental , por lo que es recomendable en esas situaciones buscar conexiones con seres humanos.
Estas no son las únicas preguntas que nunca debes hacerle a un software de Inteligencia Artificial, sin embargo, son algunas de las más importantes, pues recordemos que la IA está programada para brindar respuestas que le han sido alimentadas, además que esta puede estar también limitada por las normas insertadas en su programación.
Suscríbete aquí a nuestro Newsletter para que estés al día con nuestros contenidos.