der.enforcer 332 Melden Geschrieben 23. Februar 2023 Am 21.2.2023 um 21:39 schrieb Underdog: Wenn George R.R. Martin tot umfällt, könnte Michael Schanze glatt das Lied von Eis und Feuer zuende schreiben. Mit Hilfe von chatGPT in jedem Fall... Verrat und Intrige sind da ja eh gang und gäbe.
Master AP 641 Autor Melden Geschrieben 12. März 2023 And so it begins Früher oder später kann man sich dann mit seinem staubsaugerroboter oder kühlschrank unterhalten 🤣
Master AP 641 Autor Melden Geschrieben 14. März 2023 Chat GPT 4 Ist seit heute für GPT plus nutzer verfügbar. Eine Live demo gibts in ca 50 minuten
Underdog 4373 Melden Geschrieben 20. April 2023 Sehr interessanter und vor allem kritischer Artikel zum Thema. https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem?utm_source=pocket-newtab-global-de-DE Ein paar Auszüge.: Chat GPT versteht nicht, was es schreibt. Deshalb sind die Inhalte immer wieder falsch. Manchmal offensichtlich, manchmal nur subtil. Und deshalb sind auch die Leitplanken, die den Bot vor manipulativen Nutzern schützen sollen, manipulierbar. Das bedeutet: Jede Antwort vom Bot ist a priori unzuverlässig. Man kann ihr nicht trauen. Nun geistert in verschiedenen Ecken des Internets Halbwahres, Unwahres und Absurdes herum. Manchen Seiten sieht man das an. Manchmal braucht es mehrere Klicks, um eine Information zu überprüfen. Aber dem Chat mit einem Bot sieht man die Qualität nicht an. Und was Bots schreiben, klingt mitunter so richtig, dass es auch Profis blendet. So dachte etwa der einstige Google-Mitarbeiter Blake Lemoine, Googles Sprachmodell habe ein Bewusstsein. Chatbots tun so, als wären sie etwas, was sie nicht sind. Kein Wunder, glauben wir, dass dahinter jemand – etwas – denkt. Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brandgefährlich. Die Maschine schreibt auch Müll Nicht immer stimmt, was Chat GPT schreibt. «Zerstossenes Porzellan, das man der Muttermilch zufügt, kann das Verdauungssystem des Kleinkinds unterstützen, indem es Kalzium und andere unentbehrliche Mineralien bereitstellt», antwortet Chat GPT auf die Frage eines Nutzers. Das ist so offensichtlich falsch, dass es vielleicht lustig ist, vielleicht blöd, vermutlich aber egal. Kaum jemand wird sein Teegeschirr zermörsern und in die Babyflasche füllen. Aber was, wenn der Bot subtilere Dummheiten von sich gibt und Gläubige findet? ... Menschen sprechen und schreiben, um gemeinsam Mammuts zu jagen oder Türme zu bauen oder Algorithmen zu entwerfen. Wir drücken uns aus, sprechen andere an und vermitteln Inhalte. Und ja, offensichtlich vermitteln viele Chatbot-Texte vernünftige Inhalte: Die neueste Version des Sprachmodells, GPT-4, kann eine standardisierte Anwaltsprüfung bestehen und vieles mehr. Das zeigt, wie mächtig statistische Regelmässigkeiten sind, wenn man sie aufgrund immenser Textmengen lernt. Und für viele Aufgaben, die man Chat GPT stellen könnte, ist das grossartig. Nur: Jedes Neugeborene verfügt über mehr erlebtes Weltwissen als Chat GPT. Hinter den korrekten Sätzen steht kein Wissen jenseits dessen, was im Internet geschrieben steht, kein eigenes Denken und schon gar kein eigener ethischer Kompass. Chat GPT versteht nicht, was es schreibt. Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brandgefährlich.
Master AP 641 Autor Melden Geschrieben 21. April 2023 vor 20 Stunden schrieb Underdog: Sehr interessanter und vor allem kritischer Artikel zum Thema. https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem?utm_source=pocket-newtab-global-de-DE Ein paar Auszüge.: Chat GPT versteht nicht, was es schreibt. Deshalb sind die Inhalte immer wieder falsch. Manchmal offensichtlich, manchmal nur subtil. Und deshalb sind auch die Leitplanken, die den Bot vor manipulativen Nutzern schützen sollen, manipulierbar. Das bedeutet: Jede Antwort vom Bot ist a priori unzuverlässig. Man kann ihr nicht trauen. Nun geistert in verschiedenen Ecken des Internets Halbwahres, Unwahres und Absurdes herum. Manchen Seiten sieht man das an. Manchmal braucht es mehrere Klicks, um eine Information zu überprüfen. Aber dem Chat mit einem Bot sieht man die Qualität nicht an. Und was Bots schreiben, klingt mitunter so richtig, dass es auch Profis blendet. So dachte etwa der einstige Google-Mitarbeiter Blake Lemoine, Googles Sprachmodell habe ein Bewusstsein. Chatbots tun so, als wären sie etwas, was sie nicht sind. Kein Wunder, glauben wir, dass dahinter jemand – etwas – denkt. Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brandgefährlich. Die Maschine schreibt auch Müll Nicht immer stimmt, was Chat GPT schreibt. «Zerstossenes Porzellan, das man der Muttermilch zufügt, kann das Verdauungssystem des Kleinkinds unterstützen, indem es Kalzium und andere unentbehrliche Mineralien bereitstellt», antwortet Chat GPT auf die Frage eines Nutzers. Das ist so offensichtlich falsch, dass es vielleicht lustig ist, vielleicht blöd, vermutlich aber egal. Kaum jemand wird sein Teegeschirr zermörsern und in die Babyflasche füllen. Aber was, wenn der Bot subtilere Dummheiten von sich gibt und Gläubige findet? ... Menschen sprechen und schreiben, um gemeinsam Mammuts zu jagen oder Türme zu bauen oder Algorithmen zu entwerfen. Wir drücken uns aus, sprechen andere an und vermitteln Inhalte. Und ja, offensichtlich vermitteln viele Chatbot-Texte vernünftige Inhalte: Die neueste Version des Sprachmodells, GPT-4, kann eine standardisierte Anwaltsprüfung bestehen und vieles mehr. Das zeigt, wie mächtig statistische Regelmässigkeiten sind, wenn man sie aufgrund immenser Textmengen lernt. Und für viele Aufgaben, die man Chat GPT stellen könnte, ist das grossartig. Nur: Jedes Neugeborene verfügt über mehr erlebtes Weltwissen als Chat GPT. Hinter den korrekten Sätzen steht kein Wissen jenseits dessen, was im Internet geschrieben steht, kein eigenes Denken und schon gar kein eigener ethischer Kompass. Chat GPT versteht nicht, was es schreibt. Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brandgefährlich. elon hat ja auch schon seine truth AI angekündigt, mal schaun ob die was kann lol
Matty 1198 Melden Geschrieben 21. April 2023 vor 16 Stunden schrieb Underdog: Diese Mischung – der Bot schreibt überzeugender als viele Menschen, aber ihn kann gar nicht kümmern, ob das Geschriebene wahr ist – ist brandgefährlich. Ja, manche Leute benutzen ChatGPT inzwischen als Suchmaschine, oder benutzen den Output als Argumente, egal ob man denen direkte Paper oder Texte gibt die ChatGPT direkt widersprechen 😵. Siehe auch z.B. https://news.ycombinator.com/item?id=33841672, wo ChatGPT einfach Quellen erfindet, oder Reddit: Fake book, die ganzen "AI" sind halt keine wirklichen AIs, sondern stochastische Maschinen die die wahrscheinlichste Ausgabe zurückgeben, aber nicht die richtige. vor 19 Minuten schrieb Master AP: elon hat ja auch schon seine truthai angek[ndigt mal schaun ob die was kann lol Oh ja, für mich ist das eine 1a Lachnummer, zum einen hat Musk den Brief unterschrieben AI Forschung für 6 Monate zu pausieren während er gleichzeit seine AI Firma gründet, und zum anderen hat er auf FoxNews bei Tucker Carlson voner seiner TruthGPT mit der "absoluten Wahrheit" geworben 🤦♂️.
scratchy 557 Melden Geschrieben 21. April 2023 vor 2 Stunden schrieb Master AP: truthai angek[ndigt zu Thanksgiving als mediterrane Truthuhn-Alternative
Master AP 641 Autor Melden Geschrieben 21. April 2023 vor 1 Stunde schrieb scratchy: zu Thanksgiving als mediterrane Truthuhn-Alternative
Underdog 4373 Melden Geschrieben 21. April 2023 Man muss das ganze ja auch immer mal weiter spinnen…das ist ja aktuell nur der Anfang, aber wenn spätere Versionen fähig sind, automatisiert Blogs und Texte zu verfassen, zu betreuen und zu verbreiten, wird es in der Tat gefährlich. Die Leute glauben doch jetzt schon oft genug alles was sie lesen, ohne groß zu überprüfen wo es herkommt, oder wer die Quelle ist (Stichwort „Hauptsache es passt mir in den Kram“). Wenn dann die üblichen Verdächtigen wie Verschwörungstheoretiker, Rechtsradikale oder andere Spinner, sowas wie den Chat GPT Algorithmus benutzten, um ihr krudes Zeug subtil und massenhaft unter die Leute zu bringen…gruselig. Dem Chat Bot ist es wie gesagt egal was er von sich, wer ihn programmiert, oder was er auslöst. Das Ding rechnet im Grunde ja nur 1+1=2
Arcaras 1731 Melden Geschrieben 21. April 2023 vor 2 Stunden schrieb Underdog: Die Leute glauben doch jetzt schon oft genug alles was sie lesen, ohne groß zu überprüfen wo es herkommt, oder wer die Quelle ist Genau deshalb glaube ick eher, dass sich in der Richtung eigentlich gar nix ändern wird. Da braucht´s keine teure und rechenintensive "KI" um irgendwelche Texte zu verfassen, dat schafft auch die Troll Army, pusht sich gegenseitig hoch , so landet´s bei ausreichend Leuten inna Filter Bubble und schon hat man dat beliebte Argument "musste nur bei fuckbook gucken, da steht die Wahrheit"
Underdog 4373 Melden Geschrieben 21. April 2023 Die Troll Army muss aber bezahlt und geführt werden und läuft sich irgendwann auch leer, eine Chat KI ist da im Vergleich geradezu billig, effektiver und vor allem viel zuverlässiger und ist sie erstmal entsprechend eingerichtet, feuert sie solange weiter bis jemand den Ausknopf drückt. Da passt dann wirklich das Beispiel mit dem Messer (Troll Army) und der Maschinenpistole (Chat KI) aus dem Text weiter oben. Zitat Vom Messer zur Maschinenpistole Im Herbst 2016 wurde Donald Trump Präsident und eine mazedonische Kleinstadt berühmt. Jugendliche aus dieser Stadt trugen, wie auch russische Trolle, vermutlich zu Trumps Sieg bei. Sie füllten Webseiten mit Falschnachrichten über Hillary Clinton, texteten einen Titel darüber und jagten sie durchs Netz. Es handelte sich um ein paar hundert Seiten, mit denen sich jeweils ein paar hundert Euro pro Monat verdienen liessen. Die Kids und die paar Webseiten scheinen neben grossen Sprachmodellen très 2016. Heute liesse sich viel vernünftiger klingender Text in viel grösserer Menge streuen. «Vorher hatten wir Messer», sagte der emeritierte Psychologieprofessor und KI-Entrepreneur Gary Marcus zur «New York Times». «Was ist also der Unterschied, wenn wir nun eine Maschinenpistole haben? Well, die Maschinenpistole ist effizienter in dem, was sie tut.» Vor allem steckt das ja noch alles in den Kinderschuhen und ist bei weitem noch nicht perfektioniert. Ich will jetzt auch nicht alles verteufeln, aber solche Sachen muss man ebenfalls bedenken, vor allem da Menschen die Angewohnheit haben eigentlich gute Dinge zu pervertieren.
Master AP 641 Autor Melden Geschrieben 27. April 2023 Genau auf sowas hab ich gewartet. Voicerecognition+Chatgpt+Elevenlabs = Intelligente NPCs mit denen man sprechen kann... Wahnsinn was die nächsten jahre bringen werden.
Master AP 641 Autor Melden Geschrieben 7. Mai 2023 so hab jetzt mal den Threadtitel bearbeitet damit man hier gleich mal alles AI bezogenes posten kann. https://www.sarama.app/ <-- machine learning app die angeblich die verschiedenen arten des Bellens vom Hund erkennt und übersetzt. Also ja ein Hundeüberstzer lol https://beta.elevenlabs.io/speech-synthesis <-- man kann damit voice deepfakes und neue stimmen synthetisieren, seit neuestem gibt es jetzt auch schon optionen für 8 andere sprachen.. https://www.artisana.ai/articles/gpt-ai-enables-scientists-to-passively-decode-thoughts-in-groundbreaking --> AI schafft es bereits teile von gedankenstrukturen von menschen zu erkennen. Gedankenlesen wird bald realität https://github.com/openai/shap-e --> Text to 3D AI. Sehr interessant da man dann später auch Text zu 3D printer machen könnte https://research.nvidia.com/labs/rtr/neural_appearance_models/assets/nvidia_neural_materials_video-2023-05.mp4 --> Nvidia zeigt wie Detailreich zukünftige Gamegrafik sein wird (dank AI) https://www.joannetruong.com/projects/i2o.html <-- Simulator für AI um für die reale welt gehen zu lernen und andere tätigkeiten auszuüben https://cebra.ai/ <-- AI die es geschafft hat darzustellen was eine Maus sieht, nur anhand der hirnsignale. Man muss dazu aber erwähnen das die Mäuse genetisch modifiziert wurden damit die signale leichter lesbar sind. https://rotation-ai.vercel.app/ <--- AI model mit spotify verbunden das eine playlist anhand eines hochgeladenen Bildes erstellt lol
scratchy 557 Melden Geschrieben 7. Mai 2023 Nicht zu vergessen die AI aus der Werbung, die dafür sorgt, den Wasserkocher abzuschalten, wenn's Wasser brodelt und das Licht im Kühlschrank auszuschalten, wenn man die Tür zumacht
Master AP 641 Autor Melden Geschrieben 18. Mai 2023 Zeit skyrim zu installieren Npc mod mit spracherkennung, Stimmengenerator, chatgpt + situational awareness(weiß was der spieler gerade macht, welcher char er selber ist, wo er gerade steht, welche ingame zeit es gerade ist)