/tech/ - Tech 2.0

Mode: Reply
Name
Subject
Message

Max message length: 4096

Opciones
Files
E-mail
Password

(used to delete files and postings)

Misc

Remember to follow the rules


287.45 KB, 1080x2400
Choroy 01/26/2025 (Sun) 20:15:00 d616ad No. 16009
Acabo de instalar existosamente Deepseek localmente dentro de mi celular. En este hilo voy a explicar paso a paso como hacerlo en dispositivos Android tal y como lo hice. >descargar Termux en el telefono. Termux es una consola de comandos para android. https://play.google.com/store/apps/details?id=com.termux No es necesario tener el telefono rooteado para utilizar Termux. al contrario, fue diseñado para entregar prestaciones mas profundas a telefonos sin jailbreak. >luego se ingresa a termux y se le otorgan permisos de almacenamiento con este comando termux-setup-storage >se actualizan los repositorios (bibliotecas remotas desde donde se obtiene software) pkg update >aplicamos este comando para actualizar termux a su ultima version pkg upgrade >nos preparamos para instalar Ollama. Ollama es un gestor de modelos locales. Poseen un catalogo muy nutrido de distintas redes neuronales que sirven distintos propositos. Algunos mas generales, otros afinados en tareas mas especificas. Ollama nos permite de forma facil y rapida descargar y utilizar estos modelos sin necesidad de conocimientos tecnicos. Descargamos los programas de los que depende Ollama pkg install git cmake golang libjpeg-turbo >descargamos una copia del codigo fuente de Ollama en nuestro equipo git clone --depth 1 https://github.com/ollama/ollama.git >entramos a la carpeta descargada de ollama con el comando Change Directory (cd) cd ollama >dentro de la carpeta, compilamos el codigo fuente para generar un unico ejecutable que despues invocaremos go generate ./... >esperamos que "go generate" termine y luego ejecutamos go build . No olvida el punto al final de "go build ." Estamos diciendole al comando go build que trabaje dentro del carpeta en la que estamos. Ahora tenemos que encender Ollama y lo dejaremos prendido en una sesion de Termux. Estara atento escuchando nuestras instrucciones. ./ollama serve Aparecera una verborrea en pantalla, que es el programa comunicandose con nosotros sobre los procesos que esta ejecutando para encenderse. Cuando dejen de aparecer mensajes por consola, esta listo. En termux, con el dedo hacemos el gesto en pantalla en la esquina izquierda para abrir un panel de control en donde aparecera un boton con la opcion "new session" Vamos a la carpeta ollama otra vez >cd ollama >invocamos Ollama para descarque e inmediatamente ejecute el modelo deepseek-r1:1.5b ./ollama run deepseek-r1:1.5b Finalizada la descarga Deepseek se ejecutara de inmediato y estara listo para recibir consultas.
>>16009 termux corre en android >=5.1
>>16011 y se necesitan 8GB de RAM minimo para correr Deepseek localmente en el celular.
que posibilidad hay que un chino culiao se meta a tu celular a traves de esa wea?
Cuantos GB de espacio necesitas para instalarlo? Mi celu tiene 12gb de ram y 8gb de ram virtual
>>16015 a tu celular se pueden meter usando los comandos AT del modem que vienen integrados, no documentados y de los que solo el fabricante y gente muy especializada conocen... no se necesita cargar software extra para esa wea
>>16015 ignorante culiao
>>16018 anon, déjalo piola. >>16015 Buenas pregunta. El modelo se ejecuta de forma totalmente local. El código es tuyo y se ejecuta en tu equipo sin ninguna necesidad ni comunicación con el mundo exterior. En paralelo, considera que estos modelos están volviendo locos a los judíos de OpenIA y META y mientras tenemos está conversación están auditando el código como locos para explicarle mañana a los grandes inversionistas porque los resultados son superiores en todo aspecto a la tecnología judía con un moco de presupuesto y explicar porqué igual le tienen que pagar los cinco millones de dolares a cada product owner que ellos les estaban cuentiando a los patrones que era absolutamente necesario para poder tener un producto competitivo. Sí encuentran algo lo más mínimamente sospechoso en el código lo harán inmediatamente público, como pasó en el incidente XZ lo que debilitaría la jugada del Imperio...digo La República Popular China al perder la confianza de la comunidad internacional. Deepseek Codigo Abierto es por sobre una demostración de poder y alcance. Sería contraproducente desde un punto estratégico y diplomático regalarle al mundo una manzana envenenada.
>>16016 El modelo pesa 5 Gigas creo.
96.65 KB, 1080x400
>>16020 Corrección, un giga. Adjunto evidencia.
¿Cómo se ve instalado localmente? Podrías compartir pantallazos? ¿Se puede entrenar con archivos?
>>16029 en que parte del proceso vas? Puedes compartir pantallazos y te voy guiando.
Bueno y que vas a hacer con eso
>>16035 Pensar más rápido.
>from Tokyo to Amsterdam, shares in AI players tumbled. >"We still don't know the details and nothing has been 100% confirmed in regards to the claims, but if there truly has been a breakthrough in the cost to train models from $100 million+ to this alleged $6 million number this is actually very positive for productivity and AI end users as cost is obviously much lower meaning lower cost of access," Jon Withaar, a senior portfolio manager at Pictet Asset Management, said. Gringos culiaos estaban diciendo que desarrollar IA costaba algo así como 90% más de lo que realmente cuesta, aprovechándose del modelo de código propietario de fuente cerrada y aprovechándose de eran los únicos con la capacidad de sacar productos comerciales. https://www.reuters.com/technology/chinas-deepseek-sets-off-ai-market-rout-2025-01-27/ Open Source Uber Alles.
9.92 KB, 275x183
>>16041 a alguien le sorprende?
>>16042 Lo más chistoso es que deja en entre dicho el presupuesto del proyecto Stargate.
Cuál es la diferencia a instalarla desde la app que ofrecen de la página de Deepseek?
>>16077 Que siguiendo el tutorial de arriba está almacenado en TU telefono. La aplicación que ofrece la Empresa se comunica con los servidores remotos de los chinos.
>>16077 La app es el deepseek-R1 de verdad con 671 mil millones de parámetros. El que dice OP es una versión lite entrenada desde otro modelo base que intenta imitar a R1. No son lo mismo. Si quieres correr el "the real" deepseek necesitas un cluster de H100 o H800 con 192GB de VRAM o armar un workstation con esa RAM y conformarte con correrlo en CPU a 10 tokens/s.

Delete
Report