Las cámaras digitales vintage no son solo una moda pasajera. Son una declaración artística.

Los jóvenes adultos de hoy crecieron en una época en la que sus infancias fueron documentadas con cámaras de teléfonos inteligentes en lugar de cámaras digitales o de película dedicadas. No es sorprendente que, tal vez como reacción a la omnipresencia del teléfono, algunos jóvenes fotógrafos creativos estén dejando sus teléfonos en los bolsillos a favor de cámaras digitales compactas de apuntar y disparar, un tipo de cámara que los fabricantes están activamente descontinuando.

Gran parte del entusiasmo entre esta clase creativa se ha centrado en modelos premium y elegantes como las cámaras Fujifilm X100 y Ricoh GR, o para las autodenominadas «digicam girlies» en TikTok, cámaras de zoom como la Canon PowerShot G7 y los modelos Sony RX100, que son excelentes para selfies.

Pero otros fotógrafos están volviendo a los últimos 20 años o más para añadir una estética vintage «Y2K» a su trabajo. La apariencia de MySpace es fuerte con muchos fotógrafos que disparan con auténticas «digicams» de principios de los 2000, apuntando sus cámaras, con el flash deslumbrante, a sus amigos y capturando fotos granuladas de baja resolución que se parecen mucho a las de 2003.

«Es tan salvaje para mí porque soy una millennial mayor», dice Ali O’Keefe, quien dirige el canal de fotografía Two Months One Camera en YouTube. «Mi infancia está capturada en película… pero para [los jóvenes], las suyas probablemente fueron capturadas en, como, Canon SD1000s», dice, haciendo referencia a una popular cámara de apuntar y disparar de mediados de los 2000.

No se trata solo de la sensibilidad retro que buscan, sino también un poco de credibilidad cool. Todos, desde Ayo Edibiri hasta Kendall Jenner, están ayudando a alimentar la fiebre de las digicams tomando fotos públicamente con una cámara de bolsillo vintage.

El auge de las cámaras digitales vintage marca al menos el segundo gran boom nostálgico en el espacio de la fotografía. Hace más de 15 años, un resurgimiento del cine trajo miles de cámaras de los años 70 y 80 de los armarios a los bolsos y mochilas. Empresas como Impossible Project y Film Ferrania comenzaron la producción de películas compatibles con Polaroid y de 35 mm, respectivamente, reactivando equipos de fabricación que de otro modo habrían sido enviados al desguace. Las empresas tradicionales de cine como Kodak e Ilford han visto un aumento en las ventas. Desafortunadamente, el precio del stock de películas también ha aumentado significativamente, y el procesamiento de películas también se ha vuelto más costoso. (Revelar y escanear digitalmente un rollo ahora cuesta típicamente entre 15 y 20 dólares).

El CEO de Intel no ha logrado cambiar la empresa y ahora deja su cargo

En un movimiento sorpresivo, Pat Gelsinger, CEO de Intel, ha renunciado a su cargo tras menos de cuatro años, según informaron Reuters y otros medios. Este cambio marca un caótico año para Intel, que se prepara para reportar su primera pérdida financiera anual desde 1986 y ha anunciado despidos de al menos 15,000 empleados este año en un intento por reducir costos.

El CFO de Intel, David Zinsner, y la jefa del Grupo de Computación para Clientes, Michelle Johnston Holthaus, compartirán el título de CEO interino mientras la junta directiva de la compañía busca un nuevo CEO. Gelsinger también ha dejado su puesto en la junta.

Una declaración del presidente de la junta, Frank Yeary, sugiere que Intel planea continuar con el impulso característico de Gelsinger hacia el negocio de la fundición de chips. «Si bien hemos logrado un progreso significativo en recuperar la competitividad en manufactura y construir las capacidades para ser una fundición de clase mundial, sabemos que aún tenemos mucho trabajo por hacer en la empresa y estamos comprometidos a restaurar la confianza de los inversores», dijo Yeary.

Gelsinger había impulsado la transformación de Intel de una empresa que principalmente fabrica y vende sus propios diseños de chips a una que también fabrica chips para otras empresas que no tienen sus propias fábricas. Para lograr eso, Intel tendría que recuperarse de años de tropiezos en manufactura y alcanzar a TSMC, con sede en Taiwán, que actualmente es la fundición de chips más avanzada y exitosa del mundo. Incluso Intel ha estado utilizando a TSMC para fabricar muchos de sus CPUs y GPUs más avanzados en los últimos años, rompiendo una racha de décadas de fabricar la mayoría de sus chips internamente.

Fuente: [Ars Technica](https://arstechnica.com/gadgets/2024/12/intel-ceo-pat-gelsinger-steps-down-after-terrible-no-good-very-bad-year/)

Las personas compartirán desinformación que provoca ‘indignación moral’

En un mundo donde las redes sociales dominan la difusión de información, la desinformación que provoca una reacción emocional intensa, como la indignación moral, se propaga rápidamente. Un ejemplo reciente es la supuesta declaración de Rob Bauer, presidente de un comité militar de la OTAN, quien supuestamente sugirió un ataque preventivo contra Rusia. A pesar de que esta afirmación era completamente falsa, logró casi 250,000 visualizaciones en la plataforma X, siendo difundida por figuras como Alex Jones.

¿Por qué historias como esta se comparten tanto? Según William J. Brady, investigador de la Universidad Northwestern, la mayoría de los estudios sobre desinformación asumen que las personas desean ser precisas, pero ciertos factores las distraen. Entre estos podría estar el entorno de las redes sociales o la confusión sobre las fuentes. Sin embargo, el estudio coautor de Brady sugiere que cuando el contenido provoca indignación, las personas lo comparten sin ni siquiera verificar si lo que les ha provocado es real. Esta tendencia subraya que cuando estamos indignados, nos importa mucho menos la veracidad del contenido.

La rápida difusión de la desinformación se ha explicado tradicionalmente mediante la teoría del error, que supone que las personas comparten información errónea por equivocación. Basándose en esta teoría, muchas soluciones han intentado motivar a los usuarios a ser más precisos, sugiriéndoles que piensen detenidamente antes de compartir historias de fuentes dudosas. Sin embargo, estos esfuerzos no han tenido mucho éxito. Para abordar el problema de raíz, el equipo de Brady analizó datos de más de un millón de enlaces en Facebook y casi 45,000 publicaciones en Twitter, abarcando diferentes períodos desde 2017 hasta 2021.

Este fenómeno destaca la necesidad de comprender mejor cómo y por qué la indignación moral puede nublar nuestro juicio crítico en el contexto de la desinformación en línea. Es esencial que tanto los usuarios de redes sociales como los desarrolladores de estas plataformas colaboren para encontrar soluciones efectivas que frenen la propagación de información falsa, especialmente aquella que apela a nuestras emociones más profundas. Fuente: [Ars Technica](https://arstechnica.com/science/2024/12/people-will-share-misinformation-that-sparks-moral-outrage/).

Investigadores finalmente identifican al «molusco misterioso» del océano

En las profundidades del océano habitan algunas de las formas de vida más extrañas de la Tierra. Durante 20 años, uno de estos seres fue tan desconocido que apenas se sabía qué era exactamente. Sin embargo, las cosas se volvieron aún más extrañas a partir de ahí.

La presencia distintiva y luminiscente del organismo fue observada en múltiples misiones de exploración de aguas profundas entre 2000 y 2021, y solo se le conocía como el «molusco misterioso». Ahora, un equipo de investigadores del Instituto de Investigación del Acuario de la Bahía de Monterey (MBARI) ha revisado una extensa colección de grabaciones de avistamientos de este molusco y ha utilizado vehículos operados a distancia (ROVs) para observarlo y recolectar muestras. Le han dado un nombre y han confirmado que es un nudibranquio, el primero y único conocido que vive a tales profundidades.

Este nudibranquio, ahora llamado *Bathydevius caudactylus*, habita entre 1,000 y 4,000 metros de profundidad en la zona batipelágica o zona de medianoche del océano. Se mueve como una medusa, se alimenta como una planta carnívora y es bioluminiscente. Sus genes son lo suficientemente distintos como para clasificarlo como el primer miembro de una nueva familia filogenética.

«La anatomía, dieta, comportamiento, bioluminiscencia y hábitat distinguen a este sorprendente nudibranquio de todas las especies descritas anteriormente, y la evidencia genética apoya su ubicación en una nueva familia», afirmó el equipo de investigación de MBARI en un estudio publicado recientemente en *Deep Sea Research*.

Los nudibranquios son gasterópodos, lo que literalmente se traduce como «pie estómago», ya que el «pie» sobre el que se desplazan está justo debajo de sus intestinos. Son parte de un grupo más grande que incluye caracoles y babosas terrestres y acuáticas. Sin embargo, *B. caudactylus* parece moverse más como una medusa que como una babosa marina. Mayormente nada utilizando una capucha oral que se abre y cierra para impulsarse hacia atrás a través del agua de manera similar a muchas medusas.

La capucha de *B. caudactylus* también puede actuar de manera similar a una planta carnívora. Aunque no es una estructura articulada como las hojas de la planta, se utiliza para atrapar presas, típicamente pequeños crustáceos, que luego son empujados hacia la boca ubicada en la parte posterior de la capucha.

El nudibranquio también parece tener una forma única de evitar convertirse en alimento. Proyecciones al final de su cola, conocidas como dáctilos, pueden desprenderse si es necesario, al igual que las colas de algunas especies de lagartos. El equipo de MBARI cree que estos dáctilos son posiblemente un señuelo destinado a engañar a los depredadores mientras el nudibranquio se aleja nadando. Luego, estos se regeneran.

Fuente: [Ars Technica](https://arstechnica.com/science/2024/12/glowing-sea-slug-behaves-like-a-jellyfish-lizard-and-venus-flytrap/)

Organización de seguridad infantil destaca nuevo CSAM con IA entrenada en imágenes reales de abusos sexuales a menores

Imagen creada con Wall-E3. Noticias sobre posicionamientoSEO, ciencia, tecnología, gadgets e inteligencia artificial. www.romsolutions.es

Durante años, la tecnología de hash ha permitido a las plataformas detectar automáticamente materiales conocidos de abuso sexual infantil (CSAM, por sus siglas en inglés) para evitar que los niños sufran nuevos traumas en línea. Sin embargo, la detección rápida de CSAM nuevos o desconocidos ha sido un desafío mayor para las plataformas, ya que nuevas víctimas continúan siendo vulneradas. Ahora, la inteligencia artificial puede estar lista para cambiar eso.

Hoy, una destacada organización de seguridad infantil, Thorn, en asociación con un proveedor líder de soluciones de inteligencia artificial en la nube, Hive, anunció el lanzamiento de una API que amplía el acceso a un modelo de IA diseñado para detectar CSAM desconocido. Es el uso más temprano de tecnología de IA que intenta exponer CSAM no reportado a gran escala.

Como una expansión de la herramienta de detección de CSAM de Thorn, Safer, la característica de IA utiliza «modelos de clasificación de aprendizaje automático avanzados» para «detectar nuevos CSAM o no reportados previamente», generando una «puntuación de riesgo para facilitar y acelerar las decisiones humanas».

El modelo fue entrenado en parte utilizando datos de la línea de informes cibernéticos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), basándose en datos reales de CSAM para detectar patrones en imágenes y videos dañinos. Una vez que se detecta un posible CSAM, un revisor humano permanece en el proceso para garantizar supervisión. Potencialmente, podría usarse para investigar redes sospechosas de CSAM que se propagan en línea.

Por supuesto, también podría cometer errores, pero Kevin Guo, CEO de Hive, dijo a Ars que se realizaron pruebas exhaustivas para reducir sustancialmente los falsos positivos o negativos. Aunque no compartió estadísticas, afirmó que las plataformas no estarían interesadas en una herramienta donde «99 de cada cien cosas que la herramienta señala no son correctas».

Rebecca Portnoff, vicepresidenta de ciencia de datos de Thorn, dijo a Ars que era una «decisión obvia» asociarse con Hive en Safer. Hive proporciona modelos de moderación de contenido utilizados por cientos de comunidades en línea populares, y Guo dijo a Ars que las plataformas han pedido consistentemente herramientas para detectar CSAM desconocido, gran parte del cual actualmente prospera en puntos ciegos en línea porque la base de datos de hash nunca lo expondrá.

La escuela no hizo nada malo al castigar a estudiante por usar IA, dictamina el tribunal

Imagen creada con Wall-E3. Noticias sobre posicionamientoSEO, ciencia, tecnología, gadgets e inteligencia artificial. www.romsolutions.es

Un tribunal federal dictaminó ayer en contra de los padres que demandaron a un distrito escolar de Massachusetts por castigar a su hijo, quien utilizó una herramienta de inteligencia artificial para completar una tarea. Dale y Jennifer Harris demandaron a los funcionarios de Hingham High School y al Comité Escolar, buscando una orden judicial preliminar que exigiera a la escuela cambiar la calificación de su hijo y eliminar el incidente de su expediente disciplinario antes de que necesitara presentar solicitudes a universidades. Los padres argumentaron que no había una regla en contra del uso de IA en el manual del estudiante, pero los funcionarios escolares afirmaron que el estudiante violó múltiples políticas. La moción de los Harris para una orden judicial fue rechazada en una orden emitida ayer por el Tribunal de Distrito de EE. UU. para el Distrito de Massachusetts. El juez magistrado estadounidense Paul Levenson encontró que los funcionarios escolares ‘tienen la razón en cuanto a los hechos y la ley’. ‘En cuanto a los hechos, no hay nada en el registro fáctico preliminar que sugiera que los funcionarios de HHS se apresuraron a concluir que RNH [el hijo de los Harris, referido por sus iniciales] había hecho trampa’, escribió Levenson. ‘Tampoco fueron las consecuencias impuestas por los demandados tan severas como para exceder la considerable discreción de los demandados en tales asuntos’. ‘Con la evidencia actualmente ante la Corte, no detecto ninguna irregularidad por parte de los demandados’, también escribió Levenson. El incidente ocurrió en diciembre de 2023 cuando RNH era un estudiante de penúltimo año. La escuela determinó que RNH y otro estudiante ‘habían hecho trampa en un proyecto de Historia de EE. UU. AP al intentar hacer pasar como propio material que habían tomado de una aplicación de inteligencia artificial generativa’, escribió Levenson. ‘Aunque se permitía a los estudiantes usar IA para generar ideas y identificar fuentes, en este caso los estudiantes habían copiado y pegado indiscriminadamente texto de la aplicación de IA, incluidas citas a libros inexistentes (es decir, alucinaciones de IA)’.

Amazon invierte otros $4 mil millones en Anthropic, el mayor rival de OpenAI

Imagen creada con Wall-E3. Noticias sobre posicionamientoSEO, ciencia, tecnología, gadgets e inteligencia artificial. www.romsolutions.es

El viernes, Anthropic anunció que Amazon ha aumentado su inversión en la startup de inteligencia artificial con $4 mil millones adicionales, elevando su participación total a $8 mil millones, manteniéndose aún como inversor minoritario. Anthropic desarrolla ‘Claude’, un asistente de IA que compite con ‘ChatGPT’ de OpenAI.

Una de las razones detrás de este acuerdo involucra los chips. Las exigencias computacionales para entrenar grandes modelos de IA han hecho que el acceso a procesadores especializados sea un requisito para las empresas de IA. Mientras que Nvidia actualmente domina el mercado de chips de IA, con clientes que incluyen la mayoría de las grandes compañías tecnológicas, algunos proveedores de nube como Amazon han comenzado a desarrollar sus propios procesadores específicos para IA.

Según el acuerdo, Anthropic entrenará y desplegará sus modelos fundamentales utilizando los chips desarrollados por Amazon, ‘Trainium’ (para entrenar modelos de IA) y ‘Inferentia’ (para inferencia de IA, término que se refiere a la ejecución de modelos entrenados). Además, la compañía colaborará con la división Annapurna Labs de Amazon para avanzar en el desarrollo de procesadores para aplicaciones de IA.

Se informa que Anthropic también ha estado ayudando a Amazon a desarrollar una nueva versión de su asistente de IA Alexa desde agosto, basada en el modelo de lenguaje de IA Claude de Anthropic. Sin embargo, problemas relacionados con la seguridad y la latencia han retrasado su lanzamiento.

Para más detalles, puedes consultar la fuente original en: [Ars Technica](https://arstechnica.com/ai/2024/11/amazon-pours-another-4b-into-anthropic-openais-biggest-rival/).

El nuevo modelo de audio de IA de Nvidia puede sintetizar sonidos que nunca han existido

Imagen creada con Wall-E3. Noticias sobre posicionamientoSEO, ciencia, tecnología, gadgets e inteligencia artificial. www.romsolutions.es

En el ámbito de la investigación en inteligencia artificial, ya es conocido que los modelos generativos son capaces de sintetizar discurso o música melódica a partir de simples instrucciones textuales. Sin embargo, el modelo recientemente revelado por Nvidia, denominado ‘Fugatto’, promete ir más allá al utilizar nuevos métodos de entrenamiento sintético y técnicas de combinación a nivel de inferencia para ‘transformar cualquier mezcla de música, voces y sonidos’, incluyendo la síntesis de sonidos que nunca han existido.

Aunque Fugatto aún no está disponible para pruebas públicas, un sitio web lleno de ejemplos demuestra cómo puede ajustarse para modificar una serie de características y descripciones de audio, resultando en sonidos que van desde saxofones ladrando hasta personas hablando bajo el agua, o sirenas de ambulancia cantando en una especie de coro. Aunque los resultados pueden ser dispares, la gran variedad de capacidades exhibidas apoya la descripción de Nvidia sobre Fugatto como ‘una navaja suiza para el sonido’.

En un documento de investigación explicativo, más de una docena de investigadores de Nvidia detallan la dificultad de crear un conjunto de datos de entrenamiento que pueda ‘revelar relaciones significativas entre audio y lenguaje’. Mientras que los modelos de lenguaje estándar a menudo pueden manejar diversas instrucciones a partir de datos textuales, es complicado generalizar descripciones y características del audio sin una guía más explícita.

Para abordar este reto, los investigadores utilizan un modelo de lenguaje grande (LLM) para generar un script en Python que pueda crear una gran cantidad de instrucciones basadas en plantillas y de forma libre, describiendo diferentes ‘personalidades’ de audio (por ejemplo, ‘estándar, jóvenes, profesionales de treinta y tantos’). Posteriormente, generan un conjunto de instrucciones tanto absolutas (por ejemplo, ‘sintetizar una voz feliz’) como relativas (por ejemplo, ‘aumentar la felicidad de esta voz’) que pueden aplicarse a esas personalidades.

Los diversos conjuntos de datos de audio de código abierto utilizados como base para Fugatto generalmente no tienen este tipo de mediciones de características integradas por defecto. Pero los investigadores aprovechan los modelos de entendimiento de audio existentes para crear ‘leyendas sintéticas’ para sus clips de entrenamiento basados en sus indicaciones, generando descripciones en lenguaje natural que pueden cuantificar automáticamente características como género, emoción y calidad del discurso. También se utilizan herramientas de procesamiento de audio para describir y cuantificar clips de entrenamiento a un nivel más acústico (por ejemplo, ‘varianza de frecuencia fundamental’ o ‘reverberación’).

Fuente: [Ars Technica](https://arstechnica.com/ai/2024/11/nvidias-new-ai-audio-model-can-synthesize-sounds-that-have-never-existed/)

OpenAI está en guerra con sus propios evaluadores de video Sora tras una breve filtración pública

Imagen creada con Wall-E3. Noticias sobre posicionamientoSEO, ciencia, tecnología, gadgets e inteligencia artificial. www.romsolutions.es

OpenAI ha suspendido el acceso de prueba a su plataforma de generación de video Sora después de que un grupo de artistas, conocido como PR Puppets, compartiera brevemente su acceso temprano en una página web de uso público. Este acto fue un intento de protesta contra lo que perciben como trabajo no remunerado en investigación y desarrollo, así como pruebas de errores, mientras participan en el ‘lavado de arte’ de herramientas de inteligencia artificial. OpenAI, por su parte, ha declarado que la participación en la prueba alfa es voluntaria y no exige que los evaluadores proporcionen retroalimentación.

El grupo PR Puppets publicó su punto de acceso a ‘Generar con Sora’ en Hugging Face, lo cual fue rápidamente detectado por expertos en inteligencia artificial en las redes sociales. La página se conectaba a los puntos finales de la API de Sora de OpenAI y al dominio videos.openai.com, utilizando presuntamente tokens de autenticación proporcionados por OpenAI a los evaluadores.

El acceso fue revocado en cuestión de horas, aunque no antes de que numerosos seguidores generaran sus propios videos y los compartieran en redes sociales. Un portavoz de OpenAI informó a The Washington Post que la compañía está pausando temporalmente todo el acceso de prueba a Sora para evaluar la situación. Algunos usuarios también exploraron el código para descubrir pistas sobre diferentes modos y ‘estilos’ en desarrollo para Sora.

En una carta abierta dirigida a sus ‘Amo del Universo Corporativo de IA’, el grupo PR Puppets afirmó que protestaba en nombre de aproximadamente 300 artistas que habían recibido acceso temprano a Sora solo para ‘proveer trabajo no remunerado a través de pruebas de errores, retroalimentación y trabajo experimental para una compañía valorada en 150 mil millones de dólares [OpenAI]’. El grupo señaló que solo unos pocos de esos artistas verán su trabajo recompensado en forma de proyecciones más amplias para sus películas creadas con Sora y se quejaron de que OpenAI requiere aprobación antes de que cualquier producción de la alfa de Sora pueda compartirse públicamente.

Google parece haber renunciado nuevamente a fabricar sus propias tabletas Android

Imagen creada con Wall-E3. Noticias sobre posicionamientoSEO, ciencia, tecnología, gadgets e inteligencia artificial. www.romsolutions.es

En un giro inesperado, Google parece haber decidido dejar de lado sus esfuerzos en la fabricación de tabletas Android de marca propia, al menos por ahora. Según varios sitios centrados en Android, existen informes contradictorios sobre cuál fue el destino del proyecto de la tercera (o segunda, dependiendo de la fuente) Pixel Tablet. Algunos afirman que fue cancelada, mientras que otros creen que el desarrollo de la segunda tableta fue el que se suspendió. De cualquier manera, un equipo en Google estaba trabajando en la próxima tableta insignia de la marca Pixel, pero ahora, aparentemente debido a preocupaciones de rentabilidad, ese trabajo se ha detenido, al menos hasta que se considere un potencial tercer intento en el futuro.

La Pixel Tablet, lanzada el otoño pasado, fue vista como el segundo intento de Google de ingresar al mercado de tabletas que, a nivel de consumidores, prácticamente pertenece al iPad. Para diferenciarse de Apple, Google optó por un diseño que incluía una base con altavoces amigable para el hogar, lo que le daba la apariencia de una gran pantalla inteligente cuando estaba acoplada.

Sin embargo, a pesar de estos esfuerzos, no hay cifras públicas de ventas que indiquen un resurgimiento del interés en las tabletas Android más allá de las ventas básicas de dispositivos Kindle Fire de Amazon, que utilizan una versión modificada de Android sin los servicios de Google. Es probable que Google continúe apoyando y promoviendo las tabletas Android de otros fabricantes, mientras que sus propios dispositivos Pixel Fold ahora ocupan ese espacio intermedio entre los formatos de teléfono y tableta.

Por el momento, Google no ha proporcionado comentarios oficiales al respecto, pero se espera una actualización de su respuesta en el futuro. Esta decisión deja a muchos preguntándose sobre el futuro de las tabletas en el ecosistema de Google y si veremos un nuevo intento por parte de la compañía en el futuro próximo.