/arte/ - Arte que se nota

Mode: Reply
Name
Subject
Message

Max message length: 4096

Opciones
Files
E-mail
Password

(used to delete files and postings)

Misc

Remember to follow the rules


Anonymous 08/31/2022 (Wed) 23:43:49 No. 1505
Hilo de arte AI? Hilo de arte AI!
Se parece mucho al sur.
>>1505 NOOOOOOOOOOOOOOOO ARTEHERMANAS
Tengo una obsesión. Llevo días pidiéndole a Dezgo que me renderice espaldas de mujeres usando diferentes artistas de referencia. Hay dos parámetros que mejoran la salida, "seed" y "steps" aunque no tengo muy claro que significan, obtuve esos datos de pasada, y hay otro factor que es usar triple paréntesis por ejemplo (((woman))) para que esa palabra tenga una prioridad sobre las demás. Triple corchetes tiene el efecto contrario.
>>1509 seed es semilla y normalmente significa cuál es el input de una función pseudoaleatoria, por lo que eso no debería mejorar o empeorar nada, solo hacer imágenes distintas steps es pasos y al subirlo deberías tardar más al hacer un cómputo más largo y presuntamente tener mejores resultados
>>1509 >los errores te hacen mas fuerte <la mama del admin despues de decidir no abortar
Las lolis AI seran ilegales?
>>1509 yo me he leído todos los hilos de ai en el 4 asi que entiendo el modelo y como soy pobre no tengo gpu potente para tener el modelo localmente, así que también he estado usando Dezgo. Lo que he aprendido: Primero que los modelos siguen una estructura sujeto/estilo/agregado, entonces primero pones el sujeto "mujer haciendo x cosa", después lo que sería el estilo o quién lo haría "oleo rococó hecho por x artistas", y al final el agregado que sería descripciones complementarias, por ejemplo "ambient light, plants, enviroment, flowers, high quality" o cosas así, para estilos más contemporáneos sirve poner "trending on x" que sería una pagina tipo artstation, instagram, pixiv, etc. Más que poner paréntesis o signos de exclamación lo que afecta más el modelo es el orden de las weas y la reiteración de palabras, y eso se usa para detalles no para weas más amplias, entonces "woman" da lo mismo porque el modelo lo interpreta bien, pero por ejemplo "blonde" hace énfasis en que sea rubia, y si lo repites, "blonde, blonde" o "blonde hair, bright hair" estimula al modelo ha hacer el pelo más rubio. Los modelos gratis no aceptan weas eróticas o pornográficas porque los datasets de imágenes no fueron creados con eso y no tienen prioridad, por eso si pones cosas como "big breasts, massive tits, big ass, spread pussy", no te va a combiar casi nada, y lo que puedes hacer es poner frases indirectas que impliquen tomas diferentes, "nude" sí funciona en varios, pero es hasta por ahí, en tus imágenes por ejemplo es común poner "back view" y eso te asegura una toma de culo, también poner "low angle". Lo más cercano al desnudo frontal puede ser bikinis o similares. Poner personajes famosos de cualquier medio no funciona en la mayoría de los modelos a excepción que sean personajes muy grandes y conocidos generalmente actores o figuras políticas muy relevantes, como presidentes, en el 4 un anon constantemente prueba con Emma Watson y le sale bien kek. Personajes de juegos o series animadas no salen con excepciones muy reducidas en otros modelos como Craiyon pero ese es penca. En la mayoría de los modelos se pilló que interpretan bien a las "princesas", y si pones a Peach o Zelda o otra cosa salen weas interesantes, también si no pones personajes pero describes bien el atuendo, vestido, traje, etc. Métete a DreamStudio, y accede con una cuenta de google que tengas, y te darán como 200 imágenes gratis, ese modelo funciona mejor que Dezgo y tiene las mismas limitantes de palabras, pero puedes configurar al lado otras weas para tener mejores imágenes, y eso te sube los créditos que gastas por imagen, sale un número arriba que dice los creditos, eso es por cada imagen individual que generes, entonces si produces el máximo por ronda que son 9, es ese numero por 9 y se te descuenta de los intentos totales que tienes (la cantidad que queda sale en tu perfil de usuario). Como puedes usar tu cuenta de google tienes esos 200 y tantos gratis, así que está la mano, y puedes usar más de una cuenta de google, yo he usado dos. Así no necesitas comprar creditos que es una estupidez. Eso (En unos días sale la nueva versión del modelo la 1.5 así que debieran implementarla pronto, debiera mejorar los resultados pero no se sabe cuanto, a lo mínimo debiera ser un poquito mejor o un poquito más rápido) A mi no me interesa la fidelidad o coherencia del cuerpo porque los voy a usar de referencia para dibujar, como tienen el color y todo hecho las de princesas me servirán caleta podría perfectamente llegar y copiar cambiando weas y adaptando.
>>1513 Cuando pregunte que tipo de gpu se necesita para el modelo local me dijeron que una con 10 de vram y me fui a la real chucha.
>>1515 ¿Tienes la lista completa de especificaciones? Agradecido de antemano.
>>1515 jaja sí, es lamentable pero así es esta tecnología. >>1516 realmente no necesitas una gpu de 10gb, los cabros del 4 entre sus experimentaciones cacharon que lo más mínimo que se necesita serían 6gb de vram, una gpu de 6gb, pero eso te da para generar imágenes a unos minutos creo como un minuto no recuerdo, una de 8gb o 10 lo reduce como a 30 segundos, es una cantidad poca la verdad. Ehhh los modelos mas comunes corren con Nvidia, es posible correrlos en AMD pero hay que hacer algunos ajustes, eso lo tienen puesto en los hilos de stable diffusion en el /g/ del 4. Tambien dicen que es posible correrlo a puro CPU pero para eso necesitas una wea más o menos potente y te tarda varios minutos, mas de 15 creo para una imagen, así que no es muy viable y sólo gente muy angustiada lo ha probado y hay que ajustar varias weas, no vale la pena. Si tienes una GPU de 6gb en adelante, entonces puedes correr bien las weas, sólo descargar todo lo que tienen los del 4 en sus hilos y era, y estar atentos a todas las actualizaciones y todo el quilombo como le dicen, porque nuevas versiones mejoran los resultados y también la velocidad. También la gráfica te permite usar otras weas como el img2img que basicamente es usar una imagen de modelo en vez del texto, después, a esa imagen se le pone el texto y lo que hacen los modelos es aplicar los cambios a esa imagen como base en vez de partir de cero, es bastante interesante si sabes dibujar o quieres editar imagenes del texto a texto tradicional para arreglarlas. Ahora hay weas que permiten seleccionar partes de la imagen para después re-editarlas con los modelos, onda ajustar el cabello de alguien, cambiar la cara, el fondo, agregar cosas, etc. También ya están poniendo los modelos en programas de edición, hay un experimento en Krita y Alpaca está haciendo un plugin para Photoshop, y esa wea va a estar potente. Para eso una buena grafica iría como anillo al dedo. Si alguien quiere experimentar nomás con la wea, 6gb, si alguien considera que la mierda le puede servir para algo productivo, entonces que se compre una de 8gb en adelante. Lo más sensato de momento sería una de 8gb porque están en su mejor precio y puede que bajen algo más para fin de año porque salen las nuevas generaciones de gráficas. Y ya si tienes plata plata puede convenir esperar a esas porque van a ser bastante poderosas.
https://www.youtube.com/watch?v=FCf8OA4GPvI
OpenAI’s DALL-E 2 - AI-Based Art Is Here! 🧑‍🎨
Two Minute Papers
Views: 10,073 - 02/09/2022
09:49
espérense a DALL-E 3 aka DALL-3 nomas
139.84 KB, 1080x1193
148.53 KB, 1080x1252
>>1538 Basadísimo Lam humillando a las perras de twitter.
>>1538 >furro >tuitero >retrasado Pensar que alguien crió a esa abominación y ese fue el resultado.
>>1559 >alguien crió a esa abominación El diablo

Delete
Report