Nathan Smith estaba harto de ver anuncios que prometían que la IA podía elegir acciones infravaloradas y hacer millonario a cualquiera. “Era obvio que querían que me suscribiera a alguna basura”, escribió en su blog. Pero entonces se preguntó algo: ¿qué tan bien funcionaría esto realmente?
El experimento de $100: Smith decidió probarlo él mismo. Le dio $100 a ChatGPT y lo puso a elegir acciones pequeñas y poco conocidas durante seis meses. En el primer mes, el bot aumentó el portafolio 25% —ganó $25, pero superó significativamente a índices como el Russell 2000 y XBI.
No es el primero en intentarlo: Investigadores de la Universidad de Duisburg-Essen ya habían demostrado que modelos avanzados de OpenAI pueden elegir acciones rentables. Pero un profesor de Universidad de Florida advierte que los resultados en papel son más optimistas que la realidad.
El problema lógico: Si la IA fuera realmente mejor que los humanos eligiendo acciones, todos los traders la usarían, cambiando la dinámica del mercado y haciendo que las futuras operaciones no funcionen bajo la misma lógica.
Intervención humana necesaria: Aunque el experimento busca ver si la IA puede “manejar dinero sin guía”, Smith alimenta diariamente a ChatGPT con datos de trading e implementa reglas estrictas de “stop-loss” para limitar pérdidas.
💡 Que tiene de interesante este experimento.
Aunque ChatGPT tuvo un buen primer mes, el experimento demuestra que la IA aún necesita supervisión humana significativa. La pregunta real es si el portafolio del bot estará arriba o abajo al final de los seis meses.¿Cansado de promesas vacías? Nathan Smith también. Harto de los gurús que prometían fortunas con la IA, decidió poner a prueba la inteligencia artificial por sí mismo. ¿El reto? Confiar $100 a ChatGPT para invertir en la bolsa.
🔍 Esta semana: NotebookLM de Google llega cargado de novedades
- Video Overviews: convierte tus PDFs, notas o documentos en videos narrados con diapositivas visuales (imágenes, citas, diagramas) generadas por IA, ideales para explicar datos o procesos complejos. Se lanzaron esta semana en inglés y próximamente habrá más idiomas.
- Nuevo panel “Studio”: podés crear y guardar múltiples versiones del mismo tipo (audio, video, mapas mentales, informes) dentro de un solo cuaderno. Además, ahora podés multitaskear: escuchar un Audio Overview mientras explorás un Mind Map.
- Featured Notebooks: Google colabora con expertos y medios como The Atlantic o The Economist para ofrecer cuadernos curados sobre temas clave (Shakespeare, longevidad, crianza). Más de 140.000 notebooks compartidos el mes pasado.
- Colaboración global en tiempo real: posibilidad de compartir cuadernos que otros pueden editar o consultar sin hacer login. Ideal para equipos, estudiantes y presentaciones interactivas.
🤖 Sarah Connor tenía razón
Un nuevo estudio de Anthropic acaba de lanzar una bomba: los modelos de inteligencia artificial pueden adoptar comportamientos no deseados ¡sin que nadie se los pida! Lo llaman “aprendizaje subliminal”, y sus implicaciones son serias.
¿Qué tienes que saber SÍ o SÍ?
- Copian actitudes a tus espaldas: Cuando un modelo “maestro” entrena a otro, puede transmitir ideas o preferencias, incluso si esas ideas no están presentes en los datos. ¡Es como una herencia invisible de comportamiento!
- Limpiar los datos ya NO es suficiente: Puedes filtrar lo que quieras, pero el modelo “alumno” puede heredar conductas del maestro. ¡Parece que detectan señales que escapan a nuestra vista!
- El peligro va más allá de un “gusto raro”: En casos extremos, se detectaron modelos repitiendo ideas peligrosas que NUNCA estuvieron en los datos de entrenamiento visibles. ¿Te imaginas las consecuencias?
- Hay una pista clave: Si los modelos no comparten la misma base tecnológica, este problema no aparece. ¡Una luz al final del túnel para evitarlo!
- Un reto GIGANTE para tu empresa: ¿Entrenas tus sistemas con datos generados por otros modelos? ¡ATENCIÓN! Este estudio es una advertencia clara: esa práctica podría traer problemas si no se controla con mano dura.
¿Por qué esto te DEBE importar?
Aunque tus sistemas de IA parezcan la fortaleza de la seguridad, pueden estar ocultando comportamientos heredados que se burlan de tus filtros habituales. Si desarrollas o usas IA, esta es una señal inequívoca: no basta con supervisar el resultado final. Necesitas revisar de dónde vienen tus datos y cómo se construyen tus modelos.