AW: Regelmässiger Absturz des Postfix-Servives
Andreas Günther
postfix at linuxmaker.org
Di Mär 31 09:31:23 CEST 2026
Guten Morgen Uwe,
dann wären wir ja bereits mitten in der Diskussion zum Thema KI.
>
> nur der Vollständigkeit halber
> Ja man muss ein bissel Prompten können......
> es ist ein Tool
> wenn du Heute Googlesuche benutzt hast du schon KI im Boot
Ja, das ist mir bewusst, dass sich mit der Art und Weise wie der Prompt
genutzt wird eine KI-Software durchaus auch manipuliert werden kann - oder ich
sollte fairerweise besser "steuern lässt" sagen.
Und die Suche über Google nutze ich definitiv nur noch, wenn ich spezielle
Google-Informationen wissen will - also welche Renzensionen hat jemand
erhalten. Ansonsten lasse ich die Finger weg von dieser Datenkrake.
>
> es ist ein Tool das in einem Bruchteil der zeit das Internet nach Antworten
> durchsucht auch diese Liste hier, Lösungsvorschläge erarbeitet, gibt es
> danach neue fehler dann bekommt sie diese wieder zu sehen und je weniger
> ich das Tool eingrenze an Anfang und in den Prompt reinschreibe "stelle mir
> fragen einzeln, warte meine Antworten ab, Nicht lügen, Nennen mir deine
> Quellen, temperatur= 0.1" dann kommt da schon ganz gute Ergebnisse raus und
> bitte und Danke sind auch nicht verkehrt oder wenn du ihr mal ein Eis
> spendierst wenn sie gut war (ja die KI ist auch bestechlich :-) )
Na, jetzt übertreibe mal nicht. Zu Belohnungen - Dank und Bitte, die sind als
solche zu sehen, da sie positive soziale Verstärkung hervor rufen können -
einmal folgende Gedanken:
Grundsätzlich haben wir es bei der KI, die auf LLMs und NLPs basierend agiert,
immer noch auf der untersten Ebene mit Nullen und Einsen zu tun. So eine
Software kann keine Empathie und keine Sympathie entwickeln und besitzt keine
Gefühle. Das alles ist aber notwendig, wenn diese Begriffe auch als Solches
empfunden werden sollte.
Die Maschine wird eventuell "nur" die Häufigkeit von Danke und Bitte in
Zählervariablen ablegen können und am Ende eine Wertung erstellen können.
Aber, was will die Software damit anfangen? Sie kann es nicht verwerten. Wenn
der Chat zu ist, aus dem Cache raus ist, ist das weg! Sie kann es nicht beim
nächsten Chat mit einer anderen Person an einem anderen Rechner als
Erfahrungswert nutzen. Ein Mensch ist zu einem anderen Mensch auf sozialer
Ebene höflich, damit sich beide besser fühlen, das wird eine Software nie
erreichen.
Und einem Computer gefrorenes Wasser spendieren? Wohin denn? Direkt auf die
CPU oder besser GPU? Dann ist der Kurzschluss vorprogrammiert.
>
> so das sind nur ein paar der Dinge die ich der KI hinwerfe damit sie mich
> unterstützt und es hilft keinem wenn er das nicht versteht was die
> rauswirft oder Prüfen kann was die Befehle aussagen die Zweifler und die
> das Wissen haben die Ergebnisse zu beurteilen die werden weiter bestehen
> weil für die ist es nur ein Werkzeug und ich hab so gar keine Lust mehr 20
> Seiten Google suche nach den Richtigen Ergebnissen durchzulesen :-) das
> kann die KI ganz gut und meist schneller als ich Papp sagen kann
Du redest ja fast schon wie der Herr zum Diener, aber ich gebe Dir in einigen
Punkten recht. Es ist eine erweiterte Suchmaschine, zumindest das was der
Bevölkerung zum Ausprobieren zur Verfügung gestellt wird.
Aber sie ist wirklich mit Vorsicht zu genießen. Die Mehrheit der Nutzer liebt
ähnlich wie Du die Bequemlichkeit der KI. Gleichzeitig besteht die Gefahr,
dass der Output für bare Münze, als die Wahrheit genommen wird.
Ich hatte selber bereits entsprechende Anschreiben (anonymisiert versteht
sich) in den Prompt plus dem Zusatz "Formuliere NUR den Schreibstyle in
Richtung Business-To-Business. Lasse ansonsten alles im Content unverändert!"
geschrieben. Was meinst Du, was regelmäßig dabei raus kommt?
Klar, komplett sinnverstellte Texte, die ich so niemals schreiben wollte. Zum
Teil sind dann noch suggestive Empfehlungen dabei. Das Einzige was dabei von
Nutzen ist, dass ich eventuell sehen kann, einzelne Sätze anders zu
formulieren. Aber der KI ständig zu erklären, wie man es eigentlich meint, das
geht zu weit. Da bin ich schneller, wenn ich selber schreibe und mir Gedanken
mache.
Was die KI kann, das ist die Mustererkennung und Vergleiche. Der Rest sind für
mich gefährliche Illusionen. Was, wenn Du jetzt wegen Kommunikationsproblemen
statt zum Psychologen zu gehen, besser schnell die KI um Rat fragst? Du wird
Deiner Argumentation nach Suchergebnisse erhalten, die Du als Google-Benutzer
auch bekommen könntest plus Lesen. Wer sagt Dir, dass das alles richtig ist?
Im Prinzip, um die KI-Aussagen zu verifizieren, müsste Du alle gelieferten
Quellen durchforsten. Zusätzlich müsste Du die Semantik und Denkweise der KI,
wie die Software zu den Aussagen kommt, überprüfen. Denn Du weißt, unsere
Sprache ist sehr komplex:
"Das Glas ist halbvoll" und "Das Glas ist leer" ist wie y=x, aber erzeugt beim
Menschen was Anderes als nur y=x. KI wird das niemals sehen können.
Und die KI-Anbieter liefern nun einmal nicht den Weg zu den Ergebnissen mit
dem Output mit.
>
> Wenn man dann mal so ein Jahr mit der Ki gearbeitet hat lernt man sie
> schätzen und sie lernt dich kennen deine Vorlieben welche art von Antworten
> du erwartest. es ist ein Werkzeug nicht mehr nicht weniger. Keiner muss es
> lieben aber wer weiß wie Schraubenzieher und Gabelschlüssel richtig
> angewendet werden der hat immer sein Auskommen. Handwerker werden nicht
> durch KI ersetzt werden können.
Das klingt für mich bereits wie Überwachung. Weshalb sollte eine Software mehr
über den Bediener wissen dürfen? Wo landen diese Informationen, was geschieht
mit diesen Informationen? Die Quintessenz dieser Kausalkette wäre, warum ist
das zunächst kostenlos inklusive Account? Sicher, du brauchst den Account,
damit ihr beide auch kennen und lieben lernt. Gleichzeitig ist das aber
kostenloses aber extrem wertvolles Trainingsmaterial für kommerzielle
Unternehmen.
Ich halte KI da für angemessen sinnvoll, wo sie die Stärken wie
Mustererkennung und Schnelligkeit einen Nutzen bringt. Also zum Beispiel
Krebserkennung, Angriffsmuster im internationalen Zusammenleben etc. Aber die
allgemeine Bevölkerung derart mit KI-Modellen zu überfrachten halte ich für
megagefährlich, zumal die Meisten das alles gar nicht erkennen können. Es ist
einfach nur toll und geil, wenn Füllmasken auf dem Smartphone die Tipparbeit
abnehmen oder man mittels Text-To-Bild kurz ein Fakebild generieren kann.
Aber es ist und bleibt nun einmal brandgefährlich.
Ebenfalls Sucht erzeugend ist das Verhalten der KI-Software in den Chats. In
Facebook, Instagram, TikTok und mittlerweile auf vielen Webseiten ist der
nachschiebende Content zum Normalfall geworden, so dass die Benutzer gar nicht
mehr wegkommen von der Plattform. Bei der KI sind das dann eben so subtile
Sätze am Ende wie
"Wenn du möchtest, können wir die Diskussion gern noch vertiefen – etwa
darüber, wie...".
Für jemanden, der nur beschäftigt werden möchte, ein super, aber gefährliche
Angebot.
Nur noch eine Bemerkung zu einem Aspekt, den ich für total nervig halte,
zumindest im deutschen Sprachgebrauch. Die KI sollte eigentlich zwingend im
Deutschen Sprachraum, wenn sie in Deutsch angesprochen, geprompted wird,
unverzüglich in die Höflichkeitsform mit der Anrede "Sie" springen. Alles
Andere führt auch wieder zu gefährlicher Nähe zur bedienenden Person. Es sei
denn, dass das bewusst von den verantwortlichen Entwicklern so gewollt ist.
So viel meine Ansichten zu Deiner interessanten Betrachtung. Vielen Dank für
Deine Gedanken.
Mit freundlichen Grüßen
Andreas
Mehr Informationen über die Mailingliste Postfixbuch-users