Ojalá Nvidia fuera un poco más así.
Hablando del post, entendí como la mitad jajaja
Y eso que me siento semi-familiarizado con programar GPUs, porque en su momento me tocó desarrollar en OpenCL.
Con respecto del hype de instrucciones "tensoriales" (no sé por qué se llaman así, según yo son matrices de toda la vida), espero que también se mueva más la aguja a correr LLMs localmente, y no depender del proveedor gigante que literalmente roba data de internet sin entregar nada a cambio. Y no me refiero a que la gente corra LLaMA en su casa, si no que las empresas que se suban al hype, corran las cosas en su infra y lo adapten al uso que le quieran dar. En vez de entregarle información confidencial a OpenAI.