En la Cumbre Mundial de Física de la Sociedad Estadounidense de Física en Denver, Colorado, miles de investigadores están utilizando chatbots de IA para simplificar ponencias complejas. El evento ha provocado intensos debates sobre si la inteligencia artificial transformará la investigación en física. Los ponentes presentaron puntos de vista contrastados sobre el potencial y las limitaciones de la IA.
La Cumbre Mundial de Física de la Sociedad Estadounidense de Física, la reunión anual de físicos más grande del mundo, atrajo a 14.000 investigadores a Denver, Colorado, este año. Los asistentes llenaron los auditorios para escuchar a científicos destacados, pero muchos recurrieron a chatbots de IA en sus portátiles para obtener explicaciones en tiempo real sobre conceptos como qubits transmón, espintrónica y sistemas de dos niveles. Estas herramientas respondieron rápidamente, a menudo usando emojis para mayor claridad. El papel de la IA en la investigación real dominó las conversaciones en charlas, sesiones y recepciones. Matthew Schwartz, de la Universidad de Harvard, destacó las capacidades del chatbot Claude de Anthropic en una presentación titulada “10.000 Einsteins”. Señaló que Claude resolvió problemas de física avanzada al nivel de un estudiante de doctorado principiante y le ayudó a coescribir un estudio de teoría cuántica de campos en dos semanas, una tarea que habría llevado dos años con un estudiante. Schwartz predijo que la IA resolverá desafíos fundamentales, como la unión de la teoría cuántica con la relatividad general, en un plazo de cinco años. Ahora solo asesora a estudiantes dispuestos a usar IA y describió la física teórica como algo que “está en el punto de mira”. No todos comparten su optimismo. Savannah Thais, de la City University de Nueva York, advirtió que la IA destaca por sus explicaciones plausibles, pero carece de métodos verificables, con pasos ocultos que conllevan riesgos de imprecisiones en campos como la física de partículas. Rachel Burley, de la Sociedad Estadounidense de Física, señaló el entusiasmo inicial por la ayuda de la IA en la redacción de artículos, pero un aumento en las presentaciones ha puesto a prueba la revisión por pares. Matthew Ginsburg, un ex físico que trabajó en IA en Google DeepMind, argumentó que los avances suelen provenir de pensadores contrarios, no de las opiniones consensuadas de la IA. Schwartz sugirió que los humanos podrían centrarse en seleccionar problemas significativos, añadiendo: “Mi temor es que algunas cosas empeoren antes de mejorar. Es asombroso y también un poco aterrador”.