BEN

Precio en Franklin Resources Inc

Cerrado
BEN
€27,37
-€0,45(-1,60%)

*Datos actualizados por última vez: 2026-05-16 11:51 (UTC+8)

A fecha de 2026-05-16 11:51, Franklin Resources Inc (BEN) tiene un precio de €27,37, con una capitalización de mercado total de €14,22B, un ratio P/E de 22,67 y un rendimiento por dividendo de 4,08%. Hoy, el precio de la acción ha oscilado entre €27,23 y €27,73. El precio actual está 0,50% por encima del mínimo del día y 1,30% por debajo del máximo del día, con un volumen de trading de 4,03M. Durante las últimas 52 semanas, BEN ha cotizado entre €19,45 y €27,89, y el precio actual está a -1,85% del máximo de las últimas 52 semanas.

Estadísticas clave de BEN

Cierre de ayer€27,82
Capitalización de mercado€14,22B
Volumen4,03M
Ratio P/E22,67
Rendimiento por dividendo (últimos doce meses)4,08%
Cantidad de dividendos€0,28
BPA diluido (últimos doce meses)1,56
Ingresos netos (ejercicio fiscal)€451,36M
Ingresos totales (ejercicio fiscal)€7,54B
Fecha de ganancias2026-08-07
BPA estimado0,62
Estimación de ingresos€1,48B
Acciones en circulación511,28M
Beta (1A)1.591
Fecha exdividendo2026-03-31
Fecha de pago de dividendos2026-04-10

Sobre BEN

Franklin Resources, Inc. es una compañía de gestión de activos de propiedad pública. A través de sus subsidiarias, la firma ofrece sus servicios a individuos, instituciones, planes de pensiones, fideicomisos y asociaciones. Lanza fondos mutuos de acciones, renta fija, equilibrados y de múltiples activos a través de sus subsidiarias. La firma invierte en los mercados de acciones públicas, renta fija y alternativos. Franklin Resources, Inc. fue fundada en 1947 y tiene su sede en San Mateo, California, con una oficina adicional en Hyderabad, India.
SectorServicios financieros
IndustriaGestión de activos
CEOJennifer Johnson
Sede centralSan Mateo,CA,US
Empleados (año fiscal)9,80K
Ingresos medios (1 año)€769,58K
Ingresos netos por empleado€46,05K

Más información sobre Franklin Resources Inc (BEN)

Artículos de Gate Learn

¿Quién es BitBoy, el influencer de criptomonedas? Perfil completo, novedades recientes y controversias¿Quién es BitBoy? Este artículo presenta un análisis detallado del crecimiento, las polémicas y la evolución de la marca del influencer de criptomonedas Ben Armstrong. Asimismo, examina sus disputas legales más recientes y su impacto en la industria, proporcionando una perspectiva profunda sobre esta destacada figura del sector cripto.2026-01-21
Todo lo que necesitas saber sobre el token $PASTERNAK$PASTERNAK Token es el primer token emitido por la plataforma Clout iniciada por el empresario tecnológico Ben Pasternak. Desde su lanzamiento el 24 de enero de 2025, $PASTERNAK ha atraído rápidamente la atención del mercado. Este artículo profundizará en antecedentes del proyecto, economía del token, rendimiento en el mercado, apoyo de la comunidad, oportunidades de inversión, riesgos y perspectivas para su desarrollo futuro.2025-02-10
Clout: Revolucionando la Economía del Creador con SocialFiClout es una aplicación de SocialFi que permite a los usuarios emitir tokens personales y convertir la influencia en las redes sociales en activos negociables. Su innovación combina la lógica de capitalización social de FriendTech y el mecanismo de emisión de moneda de bajo umbral de Pump.fun, atrayendo a los usuarios de Web2 a través de procesos simplificados y entrada de moneda legal. El fundador Ben Pasternak utiliza el pensamiento industrial para promover la integración de la economía de celebridades de Internet y la tecnología de cifrado, tratando de crear "Wall Street + Hollywood en la era Web3".2025-02-06

Preguntas frecuentes sobre Franklin Resources Inc (BEN)

¿A qué precio cotiza hoy Franklin Resources Inc (BEN) hoy?

x
Franklin Resources Inc (BEN) cotiza actualmente a €27,37, con una variación en 24 h del -1,60%. El rango de trading de 52 semanas es de €19,45 a €27,89.

¿Cuáles son los precios máximo y mínimo de 52 semanas para Franklin Resources Inc (BEN)?

x

¿Cuál es el ratio precio-beneficio (P/E) de Franklin Resources Inc (BEN) y qué indica?

x

¿Cuál es la capitalización de mercado de Franklin Resources Inc (BEN)?

x

¿Cuál es el beneficio por acción (BPA) del trimestre más reciente de Franklin Resources Inc (BEN)?

x

¿Deberías comprar o vender Franklin Resources Inc (BEN) ahora?

x

¿Qué factores pueden afectar el precio de las acciones de Franklin Resources Inc (BEN)?

x

¿Cómo comprar acciones de Franklin Resources Inc (BEN)?

x

Aviso de riesgo

El mercado de valores implica un alto nivel de riesgo y volatilidad en los precios. El valor de tu inversión puede subir o bajar, y es posible que no puedas recuperar la totalidad del importe invertido. El rendimiento pasado no es un indicador fiable de los resultados futuros. Antes de tomar cualquier decisión de inversión, debes evaluar cuidadosamente tu experiencia, situación financiera, objetivos de inversión y tolerancia al riesgo, además de realizar tu propia investigación. Si lo consideras necesario, consulta con un asesor financiero independiente.

Aviso legal

El contenido de esta página se proporciona únicamente con fines informativos y no constituye asesoramiento de inversión o financiero ni recomendaciones de trading. Gate no se hará responsable de ninguna pérdida o daño derivado de dichas decisiones financieras. Además, ten en cuenta que es posible que Gate no pueda ofrecer todos sus servicios en determinados mercados y jurisdicciones, entre los que se incluyen, entre otros, los Estados Unidos de América, Canadá, Irán y Cuba. Para obtener más información sobre las ubicaciones restringidas, consulta el Acuerdo de usuario.

Otros mercados de trading

Últimas notícias sobre Franklin Resources Inc (BEN)

2026-05-14 12:52Andreessen Horowitz destina $115M a las elecciones de mitad de mandato de EE. UU., el 41% a grupos pro-criptoSegún el New York Times, la firma de capital de riesgo Andreessen Horowitz (a16z) ha comprometido más de 115 millones de dólares para campañas de cara a las elecciones de mitad de mandato de EE. UU. de noviembre, con los cofundadores Marc Andreessen y Ben Horowitz aportando personalmente. Más del 41% del total—aproximadamente 95 millones de dólares—se destina a grupos políticos proactivos con los activos digitales Fairshake y Leading the Future, que recibieron 47,5 millones de dólares y 50 millones de dólares, respectivamente.2026-05-07 00:55El dominio de Tether y Circle perjudica el crecimiento de las stablecoins, dice un ejecutivo de puentes en ConsensusEn Consensus, Ben O'Neill, director de flujos de capital de Bridge, dijo que el dominio de Tether y Circle en el mercado de stablecoins es perjudicial para el crecimiento general de la industria. O'Neill señaló que, si bien cada emisor tiene compensaciones de diseño, sus estructuras de comisiones son problemáticas para las grandes empresas de pagos: la comisión de reembolso de 10 puntos básicos de Tether es demasiado costosa y las comisiones de “burn” de Circle, en aumento, impactan negativamente a firmas como Visa que buscan liquidar billones de dólares en transacciones con tarjetas.2026-05-06 07:49SoFi lanza SoFiUSD en Solana, citando costos más bajos y velocidadSegún el director de SoFi, Ben Reynolds, SoFi Technologies lanzará su stablecoin SoFiUSD en Solana el martes (5 de mayo). El movimiento sigue al debut de diciembre de 2025 de SoFiUSD, un stablecoin totalmente respaldado en dólares estadounidenses emitido por SoFi Bank. “Creemos que es la cadena adecuada para usarla en pagos, en parte por el costo, en parte por la velocidad de liquidación y, en última instancia, por el rendimiento”, dijo Reynolds. SoFiUSD se desplegó inicialmente en Ethereum, con planes de ampliarse a otras redes con el tiempo.2026-05-05 19:21SoFi lanzará el stablecoin SoFiUSD en Solana el martes, citando costos más bajos y liquidación más rápidaSoFi Technologies anunció el martes que comenzará a emitir su stablecoin SoFiUSD en Solana. Ben Reynolds, responsable de la banca empresarial de SoFi, dijo que la cadena es la opción óptima para pagos gracias a costos más bajos, velocidades de liquidación más rápidas y mayor capacidad de procesamiento. SoFiUSD, un stablecoin respaldado al 100% por dólares estadounidenses, se lanzó inicialmente en Ethereum en diciembre de 2025 y desde entonces ha ampliado su asociación con Mastercard para permitir la liquidación en toda la red global de pagos.2026-04-29 04:29Altman:随着 GPT-5.5 将重点转向任务完成,“基于代币的定价”正走向过时Gate News 消息,4 月 29 日 — OpenAI 首席执行官 Sam Altman 在接受 Stratechery 的 Ben Thompson 采访时表示,基于代币的定价并非 AI 服务的长期可行模式。以 GPT-5.5 为例,Altman 指出,尽管单代币价格相比 GPT-5.4 显著更高,但该模型使用的代币数量要少得多来完成同一任务,这意味着客户并不在乎代币数量——他们只关心任务是否完成以及总成本。 "我们不是代币工厂;我们更像是一家智能工厂," Altman 说。"客户想用最少的钱买到最多的智能。底层工作是由使用少量代币的大模型完成,还是由使用大量代币的小模型完成,对他们来说并不重要。"他补充说,OpenAI 当前的客户群正越来越多地要求提升产能,而不是在价格上进行谈判;比起那些提出“给我折扣”的客户,更多客户说的是“无论成本如何,给我们更多产能”。 Altman 还以公用事业为例作了类比。他解释说,与水或电不同——在水电价格降低的情况下,消费不会显著增加——AI 需求的增长方式并不一样。"只要价格足够低,我就会继续使用更多。不只有这种方式的公共事业,"他说。AWS 首席执行官 Matt Garman 补充称,在过去 30 年里,算力价格已经下降了多个数量级,但如今售卖的算力却比以往任何时候都更多。 Altman 还将 ChatGPT 描述为“自 Facebook 以来第一个真正大规模的消费产品”,他承认虽然人们原本预计 AI 会颠覆搜索,但真正的胜利来自 ChatGPT 本身以及 Codex API。他指出,"谷歌在很多方面仍被低估了。"

Publicaciones destacadas de Franklin Resources Inc (BEN)

金色财经_

金色财经_

Hace 2 horas
Autor: Ben Thompson La potencia de cálculo enseña a la IA a pensar, la memoria enseña a los Agentes a trabajar. Esta semana, con la salida a bolsa de Cerebras, el último artículo de Ben Thompson explica: la IA ha evolucionado de "charlar" a "ejecutar tareas autónomas", y el cuello de botella en toda la arquitectura de chips ha cambiado. Tú conversas con Doubao por velocidad; cuando Kimi Claw realiza una tarea durante 5 horas por ti, no le importa si es 3 segundos más rápido o 30 segundos más lento—le importa si puede recordar el contexto y si puede seguir trabajando. Cada paso que ejecuta, la memoria de trabajo (KV Cache) se expande una capa más. La GPU está diseñada para "esperar frente a la pantalla": durante el prellenado, la memoria de video está inactiva; durante la decodificación, la potencia de cálculo está inactiva—la mitad del tiempo esperando. Lo que realmente limita no es cuán rápido calcula, sino cuánto puede almacenar y qué tan rápido puede leer. Más fundamental aún, los agentes de larga duración convierten la KV Cache de un caché temporal en una memoria de trabajo persistente. Quien pueda hacer que esta memoria dure más, se reutilice más y cueste menos, tendrá la clave de la economía de los Agentes. Eso es mucho más importante que los puntajes de rendimiento. En cuanto al momento de la salida a bolsa, hacer una compañía de chips en mayo de 2026 sería casi ideal. Reuters informó el fin de semana: > Dos personas informadas dijeron a Reuters el domingo que, impulsados por la demanda creciente del mercado por las acciones de esta compañía de chips de IA, Cerebras Systems podría ajustar al alza el tamaño y el precio de su oferta pública inicial (OPI) el lunes. Las fuentes indicaron que la compañía está considerando aumentar el rango de precios de 115–125 dólares por acción a 150–160 dólares, y ampliar el número de acciones de 28 millones a 30 millones; dado que la información aún no es pública, ambas fuentes pidieron permanecer en el anonimato. El impulso en las acciones de semiconductores, en realidad, está impulsado por la IA—especialmente por la creciente conciencia de que: **los agentes inteligentes (Agents) absorberán una cantidad masiva de potencia de cálculo (Compute).** Pero la proposición que apunta Cerebras es aún más amplia: hasta ahora, la narrativa del poder de cálculo en IA se ha centrado casi exclusivamente en las GPU, en Nvidia; en el futuro, el panorama será cada vez más **heterogéneo (Heterogeneous).** Era GPU ----- La historia de cómo las GPU se convirtieron en el centro de la IA ya es vieja conocida, en resumen: * Como dibujar píxeles en una pantalla es un proceso paralelo—cuantos más procesadores, más rápido se renderiza la gráfica—el cálculo en IA funciona igual: la cantidad de unidades de procesamiento determina la velocidad de cálculo. * Nvidia aprovechó esta tendencia: convirtió los procesadores gráficos en dispositivos programables (Programmable), y con CUDA, un ecosistema de software completo, llevó esa capacidad a todos los desarrolladores. * La diferencia fundamental entre gráficos y IA radica en la escala del problema—los modelos son mucho más grandes que las texturas en videojuegos. Esto llevó a dos evoluciones en cadena: una rápida expansión de la memoria de alta ancho de banda (HBM, High-bandwidth memory) en cada GPU; y avances en la interconexión entre chips (Chip-to-chip networking), permitiendo que múltiples chips funcionen como un sistema direccionable (Addressable system). Nvidia lidera en ambas. * El uso principal de las GPU siempre ha sido el entrenamiento, y este proceso es especialmente exigente en los puntos anteriores. Cada paso de entrenamiento es altamente paralelo, pero los pasos son secuenciales: antes de pasar al siguiente, cada GPU debe sincronizar sus resultados con todas las demás. Por eso, un modelo de billones de parámetros (Trillion-parameter) debe caber en la memoria total de decenas de miles de GPU, y estas deben comunicarse como una sola máquina. Nvidia domina estos dos desafíos: primero, asegurando la disponibilidad de HBM antes que nadie; segundo, invirtiendo en tecnología de red a largo plazo. Por supuesto, el entrenamiento no es la única carga de trabajo en IA, otro es la **inferencia (Inference)**. La inferencia tiene tres partes principales: **1. Prellenado (Prefill):** codificar todo lo que el modelo de lenguaje grande (LLM) necesita entender en un estado comprensible; esto es altamente paralelo y requiere mucho poder de cálculo. **2. Decodificación parte 1 (Decode Part 1):** leer la **KV cache (KV Cache)**—que almacena el contexto, incluyendo la salida del prellenado—para cálculos de atención. Es un paso en serie con un ancho de banda crítico, y la demanda de memoria varía y crece con el tiempo. **3. Decodificación parte 2 (Decode Part 2):** realizar cálculos de retroalimentación hacia adelante (Feed-forward computation) en los pesos del modelo; también en serie y con una demanda de memoria que depende del tamaño del modelo. Estos dos pasos de decodificación se alternan en cada capa del modelo (no en secuencia simple, sino en un patrón entrelazado), es decir, **la decodificación es serial y limitada por el ancho de banda de memoria (Memory-bandwidth bound).** Cada token generado requiere leer completamente dos pools de memoria diferentes: la KV cache, que crece con cada token y almacena el contexto, y los pesos del modelo. Ambos deben leerse por completo para producir un solo token de salida. Las GPU responden perfectamente a estas tres necesidades: ofrecen alto poder de cálculo para el prellenado, suficiente HBM para KV cache y pesos, y mediante interconexión entre chips, permiten la agrupación de memoria cuando la capacidad de una sola GPU no basta. En otras palabras, la misma arquitectura que funciona para entrenamiento funciona también para inferencia—como se ve en la colaboración entre SpaceX y Anthropic. En su blog oficial, Anthropic dice: > “Hemos firmado un acuerdo para usar toda la capacidad computacional del centro de datos SpaceX Colossus 1. Esto nos da más de 300 MW de capacidad adicional (más de 220,000 GPUs Nvidia). Esto mejorará directamente la capacidad de servicio de Claude Pro y Claude Max.” SpaceX mantiene el Colossus 2—probablemente para entrenamiento de modelos futuros y también para inferencia de modelos existentes. La razón por la que pueden hacer ambas cosas en el mismo centro de datos es que los modelos de xAI aún no usan mucho la capacidad; pero lo que importa aquí es que pueden hacerlo porque tanto entrenamiento como inferencia se hacen en GPU. De hecho, las GPUs que Anthropic firmó originalmente para Colossus 1 también se usaron inicialmente para entrenamiento; la flexibilidad de las GPU es una gran ventaja. Interpretando Cerebras ---------- Lo que hace Cerebras es completamente diferente. Aunque el diámetro del wafer de silicio es de 300 mm, el “límite de máscara” (Reticle limit)—el tamaño máximo que puede exponer la litografía en el wafer—es aproximadamente 26 mm x 33 mm. Este es el tamaño máximo efectivo del chip; para superar este límite, se necesita conectar chips independientes mediante una “capa intermedia” (interposer), como hizo Nvidia en el **B200**. Pero Cerebras inventó un método de enrutamiento que atraviesa las “líneas de corte” (Scribe lines, los bordes entre exposiciones de máscara), **convirtiendo toda la oblea en un solo chip**, sin necesidad de conexiones entre chips relativamente lentas. El resultado: un chip con una potencia de cálculo impresionante, con una enorme cantidad de SRAM y velocidades de acceso asombrosas. En comparación: el **WSE-3** de Cerebras tiene 44 GB de SRAM en chip, con un ancho de banda de **21 PB/s**; mientras que el **H100** de Nvidia tiene 80 GB de HBM y un ancho de banda de **3.35 TB/s**. En otras palabras, aunque la memoria del WSE-3 es algo más de la mitad de la del H100, **su ancho de banda es 6000 veces mayor**. La comparación entre WSE-3 y H100 se hace porque H100 es la GPU más utilizada en inferencia actualmente, y la inferencia es claramente el campo en el que Cerebras destaca. Se puede entrenar con Cerebras, pero su historia de interconexión entre chips no es atractiva, lo que significa que la mayor parte de su potencia y memoria en chip queda inactiva; lo que realmente importa es que puede generar flujos de tokens mucho más rápido que las GPU. Pero también existen limitaciones en la inferencia: siempre que todos los datos puedan caber en la memoria del chip, la velocidad de Cerebras es máxima; **una vez que la demanda de memoria supera ese límite** (por ejemplo, modelos más grandes o caches más largas), **Cerebras deja de ser razonable**, especialmente considerando su costo. La tecnología de “todo en una oblea como chip” implica un alto desafío en la fabricación, elevando mucho los costos. Aún así, creo que los chips estilo Cerebras tienen mercado: actualmente, la compañía enfatiza la velocidad para la programación—la inferencia requiere generar muchos tokens, lo que implica aumentar la velocidad de generación por segundo, equivalente a pensar más rápido. Pero creo que esto es solo un caso de uso temporal, y la razón la explicaré más adelante. Lo que realmente importa es cuánto tiempo tarda un humano en obtener una respuesta; con la proliferación de dispositivos de IA portátiles, la velocidad de interacción (especialmente en voz) tendrá un impacto sustancial en la experiencia del usuario. Agentes y la inferencia de agentes (Agentic Inference) ---------------------- He mencionado antes que en la era de los LLM hemos pasado por tres puntos de inflexión: **1. ChatGPT** demostró la utilidad de predecir tokens. **2. o1** introdujo el concepto de inferencia, donde más tokens significan mejores respuestas. **3. Opus 4.5 y Claude Code** introdujeron los primeros **Agentes**, que usan modelos de inferencia y un marco que incluye uso de herramientas, verificación de trabajo, etc., para completar tareas reales. Aunque todos estos pertenecen a la categoría de “inferencia”, creo que la distinción entre responder—que llamo “inferencia de respuesta” (Answer inference)—y ejecutar tareas—que denomino **“inferencia de agentes” (Agentic inference)**—se vuelve cada vez más clara. El mercado de Cerebras apunta a la “inferencia de respuesta”; pero a largo plazo, creo que la arquitectura de la “inferencia de agentes” será completamente diferente, incluso opuesta, a la de Cerebras o GPU. Mencioné antes que la inferencia rápida para programación es solo un caso de uso temporal. Actualmente, programar con LLM aún requiere intervención humana: definir tareas, revisar código, hacer pull requests (PR), etc.; pero no es difícil imaginar que en el futuro todo esto será automatizado. Esto será ampliamente aplicable al trabajo de agentes: su verdadera potencia no está en asistir a humanos, sino en trabajar de forma independiente, sin intervención humana. Por analogía, la mejor vía para resolver la inferencia de agentes será muy diferente de la de la inferencia de respuesta. La inferencia de respuesta valora mucho la velocidad de tokens; en cambio, **la inferencia de agentes valora la memoria (Memory).** Los agentes necesitan contexto, estado e historia. Parte de esto está en la KV cache activa, otra en la memoria principal o SSD, y más en bases de datos, logs, embeddings y almacenamiento de objetos. La clave: la inferencia de agentes ya no será solo que la GPU responda a una pregunta, sino que se construirá una jerarquía compleja de memoria alrededor del modelo. Un punto crucial es que esta jerarquía de memoria especializada para agentes implica una compensación inevitable: **a mayor velocidad, menor capacidad.** Además, si no hay participación humana en tiempo real, la velocidad ya no será la principal preocupación. Si un agente realiza tareas durante toda la noche, no le importa la latencia en la experiencia del usuario; solo le importa completar la tarea. Si un nuevo método de memoria hace posible tareas complejas, una cierta latencia será aceptable. Mientras tanto, si la latencia deja de ser la prioridad, la búsqueda de máxima potencia y memoria de alta banda ancha (HBM) pierde sentido: si la latencia no es una restricción estricta, memorias más lentas y baratas (como la **DRAM** tradicional) serán más atractivas. Si todo el sistema espera respuestas de la memoria, los chips no necesitan ser los más avanzados en proceso de fabricación. Esto provocará cambios profundos en la arquitectura, pero no significa que las arquitecturas existentes desaparezcan: Entrenamiento (Training): seguirá siendo importante, y la arquitectura actual de Nvidia (alta potencia, alta memoria de banda ancha, redes rápidas) seguirá dominando. **Inferencia de respuesta (Answer inference):** será un mercado importante pero relativamente pequeño, donde la velocidad extrema (como Cerebras o Groq) será muy útil. **Inferencia de agentes (Agentic inference):** se desacoplará progresivamente de las GPU. La limitación de que las GPU desperdician memoria en prellenado y potencia en decodificación será evidente. En su lugar, sistemas con alta capacidad de memoria, bajo costo y “suficientemente buenos” en cálculo dominarán. De hecho, la velocidad de procesamiento de herramientas por CPU puede ser más importante que la de GPU. Además, estas categorías no serán iguales en escala o importancia. En concreto, **la inferencia de agentes será el mercado más grande del futuro**, porque no estará limitada por la cantidad de humanos o el tiempo. Los actuales agentes son solo respuestas sofisticadas; los futuros agentes reales serán computadoras que realizan tareas según instrucciones de otras computadoras, y su mercado crecerá con la potencia de cálculo, no con la población. Implicaciones de la inferencia de agentes para el poder de cálculo ------------ Hasta ahora, mencionar “a medida que aumenta la potencia de cálculo” suele implicar una confianza en Nvidia. Sin embargo, la ventaja relativa de Nvidia se basa en gran medida en la baja latencia: sus chips son muy rápidos, pero para mantener esa velocidad, requiere enormes inversiones en HBM y redes. Si la latencia deja de ser la restricción principal, la propuesta de Nvidia puede dejar de justificar su prima. Nvidia también ha reconocido este cambio: lanzó **Dynamo**, un marco para desglosar la inferencia en partes, y productos como memoria independiente y racks de CPU para ampliar la capacidad de KV y acelerar llamadas a herramientas, manteniendo ocupada a la GPU costosa. Pero en última instancia, los grandes proveedores de la nube pueden buscar alternativas en tareas de inferencia de agentes que no dependan de GPU, por costo y simplicidad. Por otro lado, China, aunque carece de la potencia de cálculo de punta, tiene todo lo necesario para la inferencia de agentes: GPU suficientemente rápidas, CPU, DRAM y discos duros. El reto principal sigue siendo la potencia para entrenamiento; además, la inferencia de respuesta puede ser más importante en ámbitos de seguridad nacional y aplicaciones militares. Otra perspectiva interesante es el **espacio (Space):** chips más lentos hacen que los “centros de datos espaciales” sean más viables. Primero, si la memoria puede ser externa, los chips pueden ser más simples y más fríos. Segundo, los procesos antiguos, con dimensiones físicas mayores, resisten mejor la radiación espacial. Tercero, los procesos antiguos consumen menos energía y generan menos calor. Cuarto, los procesos menos avanzados son más confiables, algo crucial en satélites que no pueden ser reparados. El CEO de Nvidia, Jensen Huang, dice a menudo que “la ley de Moore ha muerto”; su idea es que el avance futuro dependerá de la innovación a nivel de sistemas. Pero cuando los agentes puedan actuar de forma independiente, la lección más profunda puede ser: **la ley de Moore ya no importa.** La forma en que obtenemos más potencia de cálculo es darnos cuenta de que la potencia actual ya es “suficientemente buena”.
0
0
0
0
CoffeeNFTrader

CoffeeNFTrader

Hace 15 horas
- Anuncio -![](https://img-cdn.gateio.im/social/moments-ccc1a067fd-71930aacff-8b7abd-e5a980) * * * * * * **Eli Ben-Sasson, cofundador de StarkWare y una figura clave detrás de zk-STARKs y Zcash, dice que las pruebas de conocimiento cero están convirtiéndose en infraestructura esencial para la privacidad, escalabilidad y confianza en blockchain.** * **En la entrevista, explica por qué la tecnología ZK podría ayudar a proteger a Bitcoin de futuras amenazas cuánticas, al mismo tiempo que hace que el cumplimiento financiero sea más privado y eficiente.** * * * **¿Qué fue lo que originalmente te convenció de que las pruebas ZK serían fundamentales para blockchain?** **Eli Ben-Sasson:** Sobre todo, fue la cálida reacción de los desarrolladores principales de Bitcoin en 2013, especialmente Greg Maxwell y Mike Hearn, quienes me convencieron de que necesitaban urgentemente el código que estaba construyendo para la privacidad y la escalabilidad. Eso me convenció más que cualquier otra cosa. Estaba dando charlas sobre mi investigación en conferencias académicas, e incluso intentaba fundar una startup en torno a ello, pero no hubo una recepción como la que recibí de esos desarrolladores de Bitcoin. Esa reacción tan sincera es lo que me convenció. **¿Cuál es la mayor idea errónea sobre ZK que aún persiste hoy en día?** **Eli Ben-Sasson:** La mayor idea errónea es que ZK es muy difícil de acceder y usar, tanto para desarrolladores como para usuarios. La gente piensa que es realmente, realmente complicado. Esa parte es cierta. Pero también piensan que, por ser complicado, todavía es inaccesible para desarrolladores, usuarios y emprendedores. Esa es la idea equivocada. Hoy en día, es muy usable con lenguajes de programación como Cairo y blockchains como Starknet. Básicamente, puedes programar una aplicación que lo use. **¿Cómo influyeron esas primeras conversaciones con Vitalik en la dirección de la innovación moderna en blockchain?** **Eli Ben-Sasson:** Vitalik es una de las voces más importantes en blockchain, quizás incluso la más influyente. Sin duda, lo fue durante varios años. El hecho de que apoyara mucho a ZK ayudó muchísimo. Les doy algunos ejemplos. Escribió algunas de las primeras explicaciones populares de cómo funcionan el protocolo STARK y el protocolo FRI, que co-inventé. También fue quien básicamente valoró la ronda semilla de StarkWare. Creo que fue su primera inversión, y por supuesto eso brindó mucho apoyo a StarkWare. Finalmente, el primer proyecto pagado en el que trabajó StarkWare fue uno encargado por la Fundación Ethereum. Todo esto surgió del apoyo de Vitalik a ZK, StarkWare y zk-STARKs. **Mencionaste que fundaste tu empresa durante una caminata por un mercado de pescado. ¿Qué revela esa historia sobre cuán temprano era en realidad la visión de ZK?** **Eli Ben-Sasson:** Sin duda, fue muy, muy temprano. No estoy seguro de que el mercado de pescado en sí sea la parte importante. El mercado de pescado fue una coincidencia. Vitalik y yo asistíamos a una conferencia en algún lugar de China, y casualmente caminábamos juntos cuando nos encontramos con un mercado de pescado, lo cual siempre me resulta interesante. Me encanta ver cómo trabajan las personas en diferentes lugares, y los mercados son un lugar genial para ver cómo trabajan las personas. Pero debo decir que los inversores y capitalistas de riesgo en el mundo blockchain fueron muy visionarios respecto a ZK. Tuvimos mucho interés en nuestra ronda semilla. Zcash recibió mucho apoyo de personas como Naval Ravikant y otros. El mundo más convencional no vio el potencial de ZK, pero blockchain sí. Los equipos e innovadores de blockchain lo vieron. **Tu equipo ahora está abordando amenazas cuánticas para Bitcoin. ¿Qué tan real es el riesgo de “cosechar ahora, descifrar después” en términos prácticos?** **Eli Ben-Sasson:** Para las blockchains, es extremadamente prevalente. Todo lo que esté encriptado con criptografía que pueda ser roto por una computadora cuántica será roto por una computadora cuántica. Eso seguro. Y las blockchains mantienen registros públicos de todo, esencialmente para siempre. Así que sí, es definitivamente una gran amenaza. Pero la amenaza mayor es que, una vez que llegue una computadora cuántica, las cadenas que no hayan adoptado cambios y se hayan protegido contra la amenaza cuántica tendrán sus monedas robadas, y el valor de todo el sistema probablemente caerá significativamente. Esa es la mayor amenaza. **¿Cómo sería en realidad un Bitcoin resistente a la cuántica, y qué tan lejos estamos de lograrlo?** **Eli Ben-Sasson:** La buena noticia es que un Bitcoin resistente a la cuántica se sentiría, para los usuarios finales y para el mundo entero, muy parecido a cómo se siente Bitcoin hoy. Ya usas hardware y software bastante sofisticados para generar firmas y rastrear tus monedas. Así que en esos dispositivos de hardware y software, estarías reemplazando algunos programas. Es un poco como el problema del Y2K. Nadie, aparte de las personas que trabajaron para proteger al mundo del Y2K, realmente notó nada. Tengo la edad suficiente para recordarlo. Con Bitcoin, probablemente te pedirían presionar un botón, o realizar una operación, para hacer que tu Bitcoin sea seguro. Pero sería muy fácil de usar. En el lado más técnico, los tipos de transacciones cambiarán. Es difícil imaginar cómo sucede eso sin permitir transacciones un poco más complicadas, porque las firmas cuánticamente seguras son simplemente un poco más largas y requieren un poco más de procesamiento. Dicho esto, esto no es nada demasiado difícil para cualquier computadora. Tu smartphone puede generar y procesar esas firmas o transacciones fácilmente. Realmente solo se trata de cambiar un poco Bitcoin. El mayor problema es la gobernanza y el apoyo de la comunidad. El trabajo tecnológico es relativamente sencillo. El mayor obstáculo es si hay suficiente apoyo de la comunidad de Bitcoin incluso para trabajar en esas cosas, y mucho menos para implementarlas y desplegarlas. Ese es el mayor problema. Desde el punto de vista tecnológico, sería muy simple. **Fuiste una figura clave en Zcash. ¿Por qué crees que la privacidad no es opcional, sino esencial para la supervivencia a largo plazo de Bitcoin?** **Eli Ben-Sasson:** Sí, de hecho fui co-inventor de la tecnología en sí, para el uso de ZK, y del documento técnico que básicamente diseñó el protocolo Zcash. También fui cofundador del proyecto y lo he apoyado públicamente a lo largo de los años. La privacidad es esencial. Si Bitcoin va a ser los rieles para la economía global, entonces la privacidad no puede ser opcional, así como la privacidad no es opcional en la economía global actual. No permitimos que todos vean cuánto dinero tenemos, los salarios que pagamos o recibimos, o nuestras inversiones. Eso no es opcional. Es lo mismo aquí. Hoy en día, Bitcoin aún no es los rieles para toda la economía global, pero creo que puede llegar a serlo, o que las criptomonedas en general pueden llegar a serlo. Y cuando llegues a ese punto, la privacidad no puede ser opcional. Habla con cualquier director financiero de cualquier empresa y pregúntale si estaría cómodo si todos sus pagos a proveedores y empleados fueran públicos. Verás inmediatamente por qué la privacidad no es opcional. **Los reguladores están cada vez más escépticos respecto a la privacidad. ¿Cómo concilias los sistemas de conocimiento cero con los requisitos de cumplimiento?** **Eli Ben-Sasson:** Lo increíble de las pruebas de conocimiento cero es que pueden permitirte hacer incluso mejor en cosas como la Ley de Secreto Bancario, sanciones y otros marcos regulatorios, porque pueden poner a los individuos en el centro del poder y responsabilizarlos. Déjame explicar. Hoy, pedimos a las instituciones financieras que hagan vigilancia en nombre del estado y prueben que los fondos no han ido a o desde entidades sancionadas. Pero las instituciones financieras realmente no quieren hacer esto. No es su negocio principal, no lo hacen bien, y los clientes sufren por ello. Sería mucho mejor pasar a un sistema que sea un poco como la forma en que EE. UU. trata la tributación. Se requiere que los individuos presenten sus declaraciones de impuestos cada año. Se confía en ellos con esas declaraciones, pero, por supuesto, de vez en cuando, pueden ser auditados. ZK puede permitir que los individuos presenten pruebas de conocimiento cero que demuestren que no han transaccionado con ninguna dirección o entidad en una lista de sanciones. Si no pueden hacerlo, entonces tal vez necesiten revelar un poco de información para explicar por qué. Quizá fue un error. Quizá sus cuentas fueron hackeadas. Así, puedes tener mejor privacidad y mayor empoderamiento de los individuos, con un cumplimiento en realidad mejor. Eso es lo que ZK te permite hacer. **De cara al futuro, ¿ves que el conocimiento cero será más importante para la escalabilidad, la privacidad o casos de uso completamente nuevos en los que aún no estamos pensando?** **Eli Ben-Sasson:** La respuesta es sí a los tres. Ya vemos que ZK ayuda con la escalabilidad en cosas como Starknet. La privacidad ya existe en Zcash, y ahora también en Starknet, y vemos muchos casos de uso para eso. Pero lo más impresionante que puedes obtener es lo que me gusta llamar hilos ZK, que consisten en empoderar a los individuos para ejecutar blockchains completas por sí mismos desde sus sótanos y demostrar que actuaron con integridad. Así que pronto veremos una clase aún mayor de casos de uso. **Si tuvieras que explicar la importancia del conocimiento cero a un ejecutivo de finanzas tradicional en una sola frase, ¿qué dirías?** **Eli Ben-Sasson:** Diría esto: ZK es una nueva forma de entregar confianza. Hoy, enormes cantidades de esfuerzo humano se dedican a verificar registros, conciliar cuentas y confirmar que las transacciones y negocios se manejaron con integridad. Contadores, ejecutivos, auditores, equipos de cumplimiento — todos forman parte de un sistema diseñado para responder a una pregunta básica: ¿podemos confiar en que esto se hizo correctamente? ZK no elimina la necesidad de juicio, responsabilidad o buena gobernanza. Pero puede trasladar gran parte de esa carga de confianza de la revisión manual a las matemáticas. Permite que una parte pruebe a otra que algo se hizo correctamente, sin exponer toda la información subyacente. Para un ejecutivo financiero, ese es el punto clave. ZK no es solo eficiencia. Se trata de hacer que la confianza sea más barata, más rápida, más privada y más confiable. **¡Gracias por tomarte el tiempo para responder nuestras preguntas! Puedes encontrar más información sobre el libro más reciente de Ben-Sasson aquí (haz clic!).**
0
0
0
0