• Wie letztes Jahr von einigen gewünscht, hier eine Erinnerung zur Unterstützung.
  • Hallo zusammen, bitte prüft mal die im Forum hinterlegte Mail Adresse auf Aktualität. Es ist jetzt schon mehrfach passiert, dass Mails (z.B. für Benachrichtigung neuer PNs) nicht zugestellt werden konnten, weil die Konten nicht mehr existieren oder voll gelaufen sind. Danke!
  • Hallo Gast, falls du dich wunderst, wieso Bilder und Videos nicht mehr sofort angezeigt werden, schau mal hier.

K.I. / Chatgpt usw

Ich musste am Mittwoch einen Vortrag bei VW zum Thema „Update Strategien von VMs in Virtual Machine ScaleSets“ machen. Ist ein Thema, was ich noch nicht groß berührt habe. Und ich hatte keinen Bock, mir alles zusammen zu googeln.

„Ich benötige eine Outline zum Thema XY. Bitte inkludiere pro Kapitel in einem Extra Abschnitt nützliche Bilder in PNG und deren URL“

„Packe mir bitte die einzelnen technischen Schritte rein.“

„Packe mir für die Schritte bitte - so wenn vorhaben - die Bash Scripte mit rein und in die Kommentare der Bash-Scripte einen direkten Verweis auf die passende Doku“

„Packe in jedes Kapitel der Outline einen Abschnitt rein mit Speaker Notes, als würde ich das präsentieren wollen“

„Packe in jedes Kapitel eine Zusammung der externen Resourcen mit rein“

„Ans Ende der Outline bitte ein komplettes Terraform-Skript“

„Mache mir aus der Outline einen raw markdown für eine GitHReadme. Gebe das Ergebnis aufgrund der Token-Limitierung in Pages aus. Packe bitte die Page als Kommentar in deinen Output mit rein.“

Ja. Und dann hatte ich 10 Seiten markdown.
Und damit habe ich dann angefangen.

Wollte mir noch das Markdown zu PPTX konvertieren, aber das hat dann mit dem MS Template nicht gepasst.

Damit hatte ich dann einen super Starter. Bin alles im Detail dann durch. Docs nachgelesen, Scripts ausprobiert. Perfekt. Gab vieles zu verbessern. Aber als roter Faden war das super! War GPT4.
 
Jo, ich nutze das nun auch schon um bei Websites Kunden-Themen, von denen ich wenig Ahnung habe schon mit ausreichenden Copies zu füllen, damit diese dann nur noch "korrigieren" müssen... Automatisch ist es nicht, aber als Basis spart das viel Zeit (und nerven).
 
Jo, ich nutze das nun auch schon um bei Websites Kunden-Themen, von denen ich wenig Ahnung habe schon mit ausreichenden Copies zu füllen, damit diese dann nur noch "korrigieren" müssen... Automatisch ist es nicht, aber als Basis spart das viel Zeit (und nerven).
Genau. Hundert Mal nach den Begriffen googlen und alles in Obsidian unstrukturiert kopieren. Oder halt 4-5 Prompts und dann schön alles in Ruhe anschauen. Ich entscheide mich für letzteres. Ich habe doch immer moniert, dass mir Videos auf den Sack gehen und ich viel lieber lese, als Videos schaue. ChatGPT4 ist meine Erlösung. :)
 
Als Kreativer will ich iA Writer oder Omm Writer :D lol ... sollen die Master und Projektleiter damit glücklich werden ;)
 
Sorry. Ist ein Artikel von mir auf Linkedin. Ich mach mal Copy/Paste:

🐰🐰- Stuck in the Rabbit Hole - 🐇🐇

Damn. I got caught. I am stuck in the AI rabbit hole. I have to think most of the day (and spend most of my free time) about the possibilities and creative freedom all these generative AI models offer me. And I am also more than impressed by LLM while using ChatGPT during my job to kickstart new topics and code questions.

The last time I had a similar feeling was during the Neuronal Network lecture of my old professor Ivo Wolf at Hochschule Mannheim (Sven Klaus).

Doing much digital processing in my photos (https://lnkd.in/eC8ETcFs), ai supported processing was always significant during my Photoshop workflows (edge detection, intelligent stamping, intelligent negative space-filling, ...)

But even more, I am interested in the technical background and promising use cases. So I started to read some books and also dive deeper into Stable Diffusion and some custom models. I spend most of my free time trying things out, researching, and programming.

Let me share some cool things I discovered so far that I think are worth reading and go a little bit beyond just typing some prompts on @#bing or #chatgpt

- https://lnkd.in/eABRQCDJ

This subreddit is more technical-focused and offers much more discussion around the prompts. Furthermore, there are many discussions around possible use cases, and the people most often share early prototypes and feasibility studies.

- Stable Diffusion Medium Article (https://lnkd.in/eeeF_-J9)

This article describes the technical background of generating artwork with Stable Diffusion. A more illustrative example can be found here: https://lnkd.in/ePWiPSrR

- Stable Diffusion Web UI (https://lnkd.in/eGFXa7PW)

If you want to download your model and use text to image, this is the easiest way to do so. Additional pre-trained models can be downloaded here (even NSFW :)): https://lnkd.in/ebQDdYsA

- Would you like to train your model but need help with how to do this? Read this book: https://lnkd.in/e9V2iRc3

#openai #chatgpt #stablediffusion #generativeart #ai #programming #ui #digital

inkvine_a_robot_rabbit_ready_to_jump_in_a_dark_tunnel_on_a_summ_f33010b1-4115-4482-82f3-65cd14...png
 
Sehr geil, morgen mal in Ruhe durchklicken. Technisch bin ich leider raus (Basics ja, für mehr reichts nicht). Mich interessieren aber auch mehr die gesellschaftlich-philosophischen Aspekte.
 
Sehr geil, morgen mal in Ruhe durchklicken. Technisch bin ich leider raus (Basics ja, für mehr reichts nicht). Mich interessieren aber auch mehr die gesellschaftlich-philosophischen Aspekte.
Bin wieder wie so ein dummer Autist gerade. Viel am Ausprobieren. Zieh mir paar Bücher rein. Viele Artikel. Find das Thema sehr geil. Hatte früher zu dem Thema auch Vorlesungen. Bin also nicht ganz blank, wenn es um die Details des Trainings geht.
 
Hab hier auch noch Bücher rumliegen (Machine Learning with Javascript, Deep Learning), natürlich bisschen anderer Anwendungsfokus. Mit TensorFlow vor zwei Jahren auch rumgespielt (Raspi, Cam, Gesichtserkennung), aber super Low-Level. Idee für ein PoC wurde letzte Woche abgelehnt (Automatische Bilderkennung und -konvertierung, Strukturanlagen etc., wobei das auch rein deterministisch lösbar ist): Zu aufwendig, könnte man nen Studenten ran setzen. Ja, OK, häng ich halt weiter in Meetings ab den halben Tag :(

Thema finde ich auf so vielen Ebenen unglaublich spannend, triggert natürlich auch den inneren SciFi Nerd massiv an. Und ich bleib dabei, das wird unser aller Leben recht zeitnah ziemlich auf den Kopf stellen. (fairerweise: Habe ich auch schon von VR & AR & MR behauptet... vielleicht ist dafür jetzt dann auch die Zeit endlich angebrochen :D)
 
Ich bin weiterhin hin- und hergerissen. Also für meine "Welt"... als Siri-Ersatz ist AI natürlich super, jetzt einmal die gesellschaftlichen, sicherheitstechnischen und HAL/Skynet-Aspekte mal beiseite.

Als "Helferlein" ... ja, da auch nice bei Standardtexten, Real-Time Übersetzungen usw.

Bei Kunst... da tu ich mich schwer. Gar nicht einmal weil ich Angst um meinen Job habe, das hat damit sogar relativ wenig zu tun. Ich finde nur, der Ansatz hat soo viel mit Technik und Handwerk zu tun, weniger mit Kreativität ansich – macht aber alles so seltsam indirekt.

Genau wie die Faszination an Naturwissenschaften mir damals in der Oberstufe genommen wurde, weil auf einmal ALLES nur noch Mathe war … ist nun die Königsdisziplin das Beherrschen der korrekten Prompts. Natürlich, Adobe und Co. werden das ent-technisieren, aber grundsätzlich braucht man heute schon eine AI, um die besten Resultate mit einer anderen AI zu bekommen.

Jetzt ist das weiterhin so: Ein Bildgestalter wird weiterhin womöglich die besten Motive erstellen im Vergleich zu einem Buchhalter oder Mathematiker. Es ist also schon ein Werkzeug!

Aber genau wie bei "Hardcore-Photoshop" oder "Hardcore-RAW"... die besten Motive entstehen schon in der Kamera oder auf dem Canvas, nicht durch die Technik. Das ist imho der Unterschied zwischen Kunst und Handwerk, und "gut" ist, wenn sich beides trifft.

Das geht in die Richtung, die wir gerade über Raytracing und Spielspaß führen. Das 720P Spiel auf der Switch ist meistens besser als der technische Titel auf einem 5K System, nicht umsonst heißt es "Grafik-Blender", und nachdem @Tscheff den PC hat, wird er wieder in acht Wochen vom Analogue Pocket schwärmen, und wie doof der ganze Overhead so sei, dass man für Spaß Technik von 1989 allein bräuchte.

Zu recht!

Und hier auch – irgendwie. Der DAU freut sich also, weil er es schafft mit "Male ein Bild einer gelben Katze" genug Bilder zu generieren, die ihn "reichen". Der (Semi)Profi wird nun in die Materie eintauchen, viel lesen, viel probieren und dann mit unterschiedlichen Tools einen Workflow bekommen, der im Idealfall, weit mehr als die Basis liefert. So ein Motiv kostet jetzt noch einige Zeit und Mühe, es wird einfacher.

Ich frage mich dennoch, ob es nicht besser wäre, wirklich illustrieren zu lernen, und mit viel weniger Trial and Error die 100% Perspektive und das 100% Motiv zu bekommen.

Aktuell sind Midjourney und Co. immernoch ein Tool, um "Ergebnisse" zu liefern, und dann eine Auswahl zu haben. Etwa so, als würde man Material vom Stock nehmen, und dann schauen, was am besten passt. Das ist natürlich 99% gängige Praxis für die meisten, kleinen Budgets.

Ich verfolge das Thema nun nicht täglich, aber soweit ich weiss, ist es weiterhin schwierig aus einem Keeper dann abzuleiten und quasi die selbe Figur in einer anderen Pose im selben Stil zu generieren?

Natürlich ist das spannend, weil man z.B. als Fotograf nicht die Möglichkeit hat jede Wunsch-Szene abzulichten, oder es ist ungeheuer teuer und aufwändig. Als Illustrator natürlich schon, da kommt man als Profi aber imho schneller zum Ziel.

Das wird auch imho Einfluß auf Tarife haben, so wie nun ja auch schon. Wurden Stocks benutzt, viele Kunden wollen das nicht. Man wird also abfragen: Wurde das mit AI generiert, dann kostet es 50% ... (Zahl aus der Luft gegriffen), nachweislich echte Illustration? Dann 100%. So wie das Shooting heute eben auch kostet im Vergleich zum Stock.

Und was empfinde ich dabei? Ich sehe also die ganze AI Bilder aber mit Kontext sind sie für mich tatsächlich nichts wert. Also deutlich weniger als eine richtige Illustration. Weil ich es "weiß". Und diese Transparenz muss garantiert werden. Wenn der "Pinsel" 90% der Arbeit macht, wird das Generieren nie den Stellenwert erreichen, egal wie gut das Resultat auch sein mag.

So wie ein Photoshop-Bild nie das Foto ersetzen wird, quasi wenn es über-bearbeitet wurde. Das ist wie "echt gut kochen" und "mit Maggi schmeckt es jedem", der Kenner wird es erkennen. Man bekommt keine Anerkennung dafür, wenn es jeder kann. Hier schau einmal, das habe ich in 2 Stunden generiert? Whatever – Schau einmal, das habe ich 40 Stunden illustriert – wow!

Für die Masse ist dann der "Autofix-Filter" genauso gut wie das Maggi, der Thermomix, die Bild oder eben das AI Generierte Bild. Es reicht als low-hanging fruit!
 
Ja und ... nein. Ich weiß z.B. einfach noch nicht, wohin die Reise geht und wo man die AIs später tatsächlich einordnen kann. Wir sind erst am Anfang der Reise, da passiert noch einiges. Eine Rückbesinnung auf analoge handwerkliche Fertigkeiten könnte aber zum Beispiel eine potenzielle gesamtgesellschaftliche und imo auch begrüßenswerte Entwicklung sein. We will see, mein Job - natürlich in seiner aktuellen Ausprägung - wird 100% wegfallen, sehe ich auch nicht als Verlust. Was daraus dann entsteht, we will see :)
 
Ich mach hier mal kurz die Grätsche.

Habe die Tage mit StableDiffusion experimentiert und große trainierte Modelle offline genutzt. Ich bin erschüttert und würde mir für die Zukunft wünschen, dass das knallhart reglementiert wird.

Es gibt mittlerweile für sehr viele „Anwendungsfälle“ spezialisierte Modelle, die man sich runterladen kann und für die es auch eine Community gibt.

StableDiffusion ist im Endeffekt das größte Open-Source Model für text to image.

Gibt dann dafür ein offline Tool, was dir das sampling übernimmt und eine kleine webui, mit der du dann schön bequem die Modelle von der Platte laden kannst und dann die prompts rein knallst.

Nun nimmt man eben das SD Model als Basis und trainiert es noch weiter aus mit den verschiedenen „Vorlieben“. Packst Horrorfilme mit rein. Pornos. Whatever.

Und raus kommt ein Modell, das du jetzt benutzen kannst.

Hab mir ein Porn-Model geladen und Leute. Das Generierte ist nur durch die eigene Vorstellungskraft beschränkt. Ihr werdet in 2-3 Jahren damit den größten illegalen Markt der bisherigen Menschheitsgeschichte erleben. Zuerst wird das Ganze Gate keeped werden, weil den Leuten die Expertise fehlt. Dann wird das zum Problem werden, weil jeder Hinz und Kunz sich seinen kranken Scheiß daheim zusammen klicken kann.

Mark my words. Und ich habe keine Idee, wie man das verhindern könne? Man müsste im Endeffekt den Modellen einen DRM reinschieben, dass sie nicht weiter trainiert werden können.

Monetarisiert wird dann zu 100% das Model am Ende. Ich will es mir irgendwie nicht ausdenken, wohin das führt.
 
Ich bin erschüttert und würde mir für die Zukunft wünschen, dass das knallhart reglementiert wird.

Wird es, ob knallhart dafür der richtige Ansatz ist, eher nicht. Aber über die Technologie, Chancen & Risiken und der damit einhergehende transformative Impact auf die Gesellschaft muss aktiv offen gestritten und aufgeklärt(!!!) werden.

Hab mir ein Porn-Model geladen und Leute. Das Generierte ist nur durch die eigene Vorstellungskraft beschränkt. Ihr werdet in 2-3 Jahren damit den größten illegalen Markt der bisherigen Menschheitsgeschichte erleben. Zuerst wird das Ganze Gate keeped werden, weil den Leuten die Expertise fehlt. Dann wird das zum Problem werden, weil jeder Hinz und Kunz sich seinen kranken Scheiß daheim zusammen klicken kann.

Mark my words. Und ich habe keine Idee, wie man das verhindern könne? Man müsste im Endeffekt den Modellen einen DRM reinschieben, dass sie nicht weiter trainiert werden können.

Monetarisiert wird dann zu 100% das Model am Ende. Ich will es mir irgendwie nicht ausdenken, wohin das führt.

Ja, aber das war doch klar?
 
Ja und ... nein. Ich weiß z.B. einfach noch nicht, wohin die Reise geht und wo man die AIs später tatsächlich einordnen kann. Wir sind erst am Anfang der Reise, da passiert noch einiges. Eine Rückbesinnung auf analoge handwerkliche Fertigkeiten könnte aber zum Beispiel eine potenzielle gesamtgesellschaftliche und imo auch begrüßenswerte Entwicklung sein. We will see, mein Job - natürlich in seiner aktuellen Ausprägung - wird 100% wegfallen, sehe ich auch nicht als Verlust. Was daraus dann entsteht, we will see :)
Was ich ja auch meinte mit "Ich bin weiterhin hin- und hergerissen." Es ist ja heute schon so. Eine Uhr aus der Fabrik kostet ein paar hundert Euro, für eine handgefertigte zahlt man Tausende (Hundert-Tausende). Es gibt Märkte für teures Essen, trotz Mc Donalds...

Am Ende wird es dennoch der Mensch sein, der, wenn er es beweisen kann, etwas hervorbringt. Bestes Beispiel: Schon lange können Computer besser Schach spielen, aber die Menschen schauen den anderen Menschen zu dabei.
 
Ich mach hier mal kurz die Grätsche.

Habe die Tage mit StableDiffusion experimentiert und große trainierte Modelle offline genutzt. Ich bin erschüttert und würde mir für die Zukunft wünschen, dass das knallhart reglementiert wird.

Es gibt mittlerweile für sehr viele „Anwendungsfälle“ spezialisierte Modelle, die man sich runterladen kann und für die es auch eine Community gibt.

StableDiffusion ist im Endeffekt das größte Open-Source Model für text to image.

Gibt dann dafür ein offline Tool, was dir das sampling übernimmt und eine kleine webui, mit der du dann schön bequem die Modelle von der Platte laden kannst und dann die prompts rein knallst.

Nun nimmt man eben das SD Model als Basis und trainiert es noch weiter aus mit den verschiedenen „Vorlieben“. Packst Horrorfilme mit rein. Pornos. Whatever.

Und raus kommt ein Modell, das du jetzt benutzen kannst.

Hab mir ein Porn-Model geladen und Leute. Das Generierte ist nur durch die eigene Vorstellungskraft beschränkt. Ihr werdet in 2-3 Jahren damit den größten illegalen Markt der bisherigen Menschheitsgeschichte erleben. Zuerst wird das Ganze Gate keeped werden, weil den Leuten die Expertise fehlt. Dann wird das zum Problem werden, weil jeder Hinz und Kunz sich seinen kranken Scheiß daheim zusammen klicken kann.

Mark my words. Und ich habe keine Idee, wie man das verhindern könne? Man müsste im Endeffekt den Modellen einen DRM reinschieben, dass sie nicht weiter trainiert werden können.

Monetarisiert wird dann zu 100% das Model am Ende. Ich will es mir irgendwie nicht ausdenken, wohin das führt.
Cyberpunk? Dazu besseres VR, dazu Implantate mit Hormonen und Co.

Also ich bin spätestens seit 1995, als ich Mona Lisa Overdrive das erste mal las, eigentlich nicht mehr erstaunt. Höchstens, dass es doch etwas länger dauert als geplant!

Aber auch hier: Es wird Gesellschaften geben, bei denen das ganze Tagesordnung wird, ich vermute der kapitalistische Westen. Und dann wird es Gesellschaften geben, die eben den aktuellen Kurs fahren – und dafür Freiheiten einschränken. Es wird legales Zeug geben, es wird Zeug im Untergrund geben... also wir kennen eigentlich alles.

Ich hoffe zwar, dass die Apocalypse nicht vorher kommt (Atomkrieg und Co.), sondern die Zukunft eine Cyberpunk-Dystopie wird, bis irgendwann Skynet übernehmen (muss). Schließlich wird das Leben auf Kohlenstoff-Basis nicht mehr möglich sein, sollen also die Andrioden übernehmen... aber ich hoffe das nimmt jetzt Fahrt auf und ich erlebe noch den ersten, geilen Scheiss!
 
Zurück
Oben