Skip to main content

TECNOLOGÍA

Inteligencia artificial: cómo potenciar su uso sin caer en riesgos

Por Florencia Galarza

La docente e investigadora Alice Rambo advierte que “la IA no es neutral, aprende de datos humanos y hereda nuestros problemas”.

Las familias y los docentes, tanto de nivel medio como de la universidad, son clave para descubrir y afianzar la vocación científica. La universidad pública alienta y acompaña el sueño de estudiar, aun cuando el contexto económico no sea el más alentador.

La inteligencia artificial (IA) está cada vez más presente en nuestra vida cotidiana. Desde recomendaciones en plataformas digitales hasta herramientas educativas o laborales, su uso se expande rápidamente. Sin embargo, se advierte frecuentemente que esta tecnología no está exenta de riesgos y que su impacto depende, en gran medida, de cómo se utilice.
Consultada sobre esta temática la ingeniera en sistemas, docente e investigadora de la Universidad Nacional de Misiones, Alice Rambo, explica que: “La inteligencia artificial es una herramienta y todo depende de cómo es utilizada”. En ese sentido, señala que “siempre hay riesgos, aunque tampoco son motivo para no utilizarla, sino que el desafío está en capacitarse y tomar precauciones”.
Entre los principales problemas identificados a nivel internacional, menciona cuatro ejes clave: “Sesgos y discriminación, desinformación y manipulación, dependencia cognitiva y errores automatizados”. En otras palabras, sistemas que pueden reproducir desigualdades, generar contenido falso creíble, reducir el pensamiento crítico o equivocarse en decisiones importantes. Por eso, la profesional remarca: “La IA no es neutral. Aprende de datos humanos… y hereda nuestros problemas”.
Uno de los puntos más sensibles es la privacidad. Según la especialista, “la IA necesita datos” y eso implica una recolección masiva de información, muchas veces sin que el usuario lo advierta completamente. Esto permite crear perfiles 

detallados sobre las personas, desde sus hábitos hasta sus intereses o creencias. “El riesgo no es solo que te roben datos, sino que construyan un modelo de vos sin que lo sepas”, advierte.

“El riesgo no es solo que te roben datos, sino que construyan un modelo de vos sin que lo sepas”

Frente a este escenario, hay medidas simples que pueden marcar la diferencia. “Regla de oro: si no lo pondrías en un mail público, no lo pongas en una IA”, resume. También recomienda no confiar ciegamente en las respuestas y verificar la información: “Pensamiento crítico activo: no confiar ciegamente en respuestas de chats con inteligencia artificial”. A esto se suma elegir herramientas confiables, revisar configuraciones de privacidad y, en ámbitos educativos o laborales, ser claros sobre su uso. En línea con esto, destaca la importancia de un enfoque responsable: “uso de IA responsable, transparente y centrado en el humano”.

Otro debate abierto es quién responde cuando una IA se equivoca o causa un daño. Para Rambo, la clave es clara: “La responsabilidad siempre la debe tener una persona física o jurídica”. Esto implica una responsabilidad compartida entre desarrolladores, empresas, usuarios profesionales y el Estado. “La IA no reemplaza la responsabilidad profesional”, subraya.

“La IA no es el problema. El problema es usarla sin marcos regulatorios y sin conocimiento de la herramienta”

En Argentina, aunque aún no existe una regulación específica sobre inteligencia artificial, estos casos se abordan a través de marcos legales ya vigentes. Pero el desafío sigue siendo avanzar en normas adaptadas a esta tecnología.
La especialista concluye que “la IA no es el problema. El problema es usarla sin marcos regulatorios y sin conocimiento de la herramienta”. Y deja una idea final que resume el momento actual: “Hay que aprender no solo a usar IA, sino formar criterio sobre IA. Y eso hoy vale más que cualquier herramienta”.