So ganz erschließt sich mir aber nicht der Sinn hinter Matrix .
Gerade da die "populären" ja eh auf XMPP basieren
So ganz erschließt sich mir aber nicht der Sinn hinter Matrix .
Gerade da die "populären" ja eh auf XMPP basieren
Ich nutze eine Nextcloud Instanz auf meinem NAS
Woher weiß ChatGPT denn welcher Text er ersetzen muss? Und wie soll das mit dm zusammenfassen eins für die KI bisher unbekannten textes gehen?
Du sendest einen Text dahin, dieser Text wird mathematisch durchgerechnet, dann berechnet man die Antwort und sucht entsprechend in der Datenbank nach den Sachen, berechnet damit wieder was die Antwort ist und haut es raus.
Danke, das ist wirklich mal ein gutes Video.
Kann mir aber nicht vorstellen, dass das ganze so einfach ist.
Wie lässt sich die Wahrscheinlichkeitsberechnung erklären, wenn er Lösungen auf spezielle Fragen findet. Wenn man sagt er soll eine Website mit dem Titel "Tilo Behnke" machen, dann gibt dazu garantiert noch keine fertige Lösung im Internet und trotzdem kriegt er das hin. Woher weiß er welches Element er für den Titel ersetzen muss? Nur durch Wahrscheinlichkeit aufeinanderfolgender Wörter lässt sich das nicht erklären. Ebenso beim zusammenfassen von Texten und Geschichten. Da muss ein Algorithmus sein der bewerten kann was wichtig und was unwichtig ist. Einfach Informationen wiedergeben geht da nicht. .
Aber genau das tut GPT nur, die Info was ins Titel Element muss, gibst du in der Anfrage, ansonsten wird einfach plumb HTML Code der aufgegabelt wurde im Internet erzeugt und angepasst.
Wie funktioniert Matrix technisch?
Eigenes Protokoll
Diese KI muss sehr komplex sein
Wenn du bessere Platzierung möchtest, verbessere deine mobile freundlichkeit, denn das ist heute der am schwersten wiegende Punkt. Liefere eine sitemap aus die die Crawler von Google, Bing etc sich nehmen können und aktualisiere diese ständig/regelmäßig.
ahhhh clean. Sowas brauch ich auch
Als Info dazu, das ganze basiert auf einem trait der dem Model zugewiesen ist, und erzeugt im Hintergrund dadurch einen Eintrag in der sitemap die dann aktualisiert wird.
Ganz nice dazu mal
Wie geht das denn, kann ich das als Laie?
Ich glaub da muss man sich schon richtig gut auskennen.
Ich kenne mich nicht aus, weiß das auch nur dank Google:
@font-face {
font-family: "Harlow";
src: url('../fonts/HarlowSolidItalicItalic.ttf') format('truetype');
font-weight: normal;
font-style: normal;
font-display: swap;
}
das Zauberwort hier heißt "Front-Display", so kann man definieren, was mit Texten passiert, wo eine Webfont verwendet wird, im oben gezeigten Beispiel lädt die Seite und zeigt die Texte in einer systemfont an, nach dem fertigen laden werden diese dann ausgetauscht.
Kann nicht mal einmal etwas einfach sein?
Dank KI Erkennung ist schummeln schwer, wer sich an die Vorgaben hält kommt einfach weiter
Ich habe die Homepage ja erstellen lassen, war teuer genug.
Ich hoffe doch nicht auch noch für das CMS bezahlt.
Wie ich die Schriften einbinde, weiß ich nicht, wenn ich da was ändern würde, würden sich die Werte verbessern?
Wenn man den Draw Zeitpunkt nach vorne verschiebt, da der Content schon gerendert wird bevor alles geladen ist, verbessert das den Score ungemein.
Und wie mache ich das mit den Bildern mit der Größenangabe? Muss jedes Bild eine Angabe haben?
<img src="path/to/image.webp" width="42" height="42" alt="" />
Als Beispiel.
Und ja jedes Bild braucht diese Angabe, durch die Angaben verhindert man das die Bilder den gesamten Inhalt der Seite verschieben sobald sie geladen sind, das nennt man auch CLS. Gibst du eine Höhe/Breite an, halten Browser den Bereich entsprechend frei und zeigen anschließend das Bild an.
Kann nicht sein. Nehmen wir mal an du wärst meine Konkurenz. Dann poste ich einfach überall deinen Link und schon sperrt google deine website und ich bin einen konkurenten los. Dann kann so nicht sein.
So einfach ist das nicht ????
Automatiesiert? wie geht das?
Ist doch gut, dann kanst du ganz viele Nachrichten mit Backlinks schicken.
Und dann von Google, MS und Co. gesperrt werden wegen den Backlinks?
hab ich schon gemacht. Es ist nur schwirig, da für neue Diskussionen ständig neue URLs entstehen. Dynmaische Website halt.
Und? Ich generiere die Sitemap dauerhaft xD
Ich hät nicht gedacht , dass es so schwer ist google ein bischen auzutricksen. und das mit Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher hab ich tatsächlich nicht bedacht. man bräuchte ein script, dass die ganze zeit anfragen mit manipulierten headers schickt.
Oder man lässt es, und trägt brav eine sitemap bei Google ein.
Ohne ist Google sogar so effektiv, das sie eine Mastodon Instanz gleich mit crawlen.
Ich fand das meine Beiträge eigendlich ganz serious und glaubwürdig klangen, keine ahnung warum diese komischen admins alle so außrasten.
Ich weiß nicht was du da geschrieben hast, aber Links zu irgendwelchen Seiten einfügen wollen die nichts zu dem im Lexikon Eintrag behandelten Thema beitragen ist nun Mal unerwünscht und damit Spam.
Was ist penality? Und wie soll Google die Qualität der Seite ohne Backlinks bewerten? Die Link Klick zahlen in der suche selber hab ich auch manipuliert, immer abwechselnt neue ip, suchen, klicken und das bestimmt 50 mal. Bist du etwa dieser "Noluspammo " Administartor auf Wikipedia?
Strafe.
Und Suchmaschinen wie Google gehen längst mit NLPs und mehr an solche Dinge Ran um die Qualität zu beeinflussen, Backlinks sind an dem Tag Geschichte geworden als man anfing sich in Linklisten einzutragen um sie zu steigern. Ein übliches vorgehen, wenn betrieber anfangen das System auszunutzen, wird es geändert um allen die gleiche Chance zu bieten. Es gibt haufenweise Infos über echtes SEO da draußen.
Und mit deiner "Fake clicks" Aktion, hast du es noch mehr abgewertet, denn nur weil deine IP anders ist, bist und bleibst du die selbe Person, oder hast du deine Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher auch ständig gewechselt?
Oh, das das so schnell geht hatte ich nicht gedacht
Bei deinem gespamme dort? Wundert es dich?
warum? wikipedia hat doch voll das gute google ranking
Und mit der Aktion, hast du dir penality eingefangen.
Die Zeiten von Backlinks sind seit 10 Jahren vorbei.
Yeah eiegner Wikipedia Artikel:
Freie-Diskussion – WikipediaFragt sich nur wie lange noch. Hoffentlich scannt google den baklink bevor die seite gelöcht wird.
PS: Solche Backlinks schaden nur
Ach so, gut dass du es mir erklärst.
Da steht irgendwas von Bootstrap oder so, kann das sein?
Laut aktueller Analyse wurde Bootstrap 4.3.1 verwendet (ziemlich alt).
Ansonsten erkenne ich Matomo Analytics, was ohne Zustimmung versucht wird zu laden, wobei ich nicht weiß ob das bei lokalen Analyse Tools eine Zustimmung benötigt (geblockt wird es wegen Tracking dennoch).
Ja tatsächlich ist der mobile Wert unter 50 im Score.
Lange Ladezeiten gehen eigentlich, aber warum ist es mobil so viel langsamer als am Desktop PC?
Und was bedeutet Content Layout Shift?
Am längsten Laden deine Custom Fonts wie RogueScript, Georgia und Montserrat, da würde ich schauen ob es wirklich eine WebFont braucht, oder ob man einfach auf Systemfonts setzen könnte.
Einige Bilder stellst du auch als JPG oder PNG zur Verfügung statt dort ebenfalls auf WebP oder AVIF zu setzen, letzteres ist jedoch nicht so verbreitet wie WebP.
Die WebFonts verursachen auch eine Abwertung, da sie den FCP verzögern (First Contentful Paint, der Zeitpunkt wenn das erste mal etwas gerendert wird) und auch den LCP erhöhen (Largest Contentful Paint) da nach dem FCP die WebFonts reingeladen werden und erneut alle Schriften gerendert werden.
Was ebenfalls belangt wird, sind die fehlenden Größenangaben für Bilder (Höhe/Breite) und das ungenutzte CSS, durch die Fehlenden Angaben zu Höhe/Breite bei Bildern kommt es zu dem oben schon erwähnten CLS, was bedeutet das Nachladende Bilder den Content dann nochmals verschieben.
Ein gutes Beispiel sieht man für dieses "Vergehen" auch in meiner Galerie:
(Sollte das Bild sofort laden.... nutze die Zufallsfunktion)
Dort wird ebenfalls aktuell keine Maße mitgeliefert, und da ich die Bilder "on the fly" generiere, werden sie nachgeladen und führen so zu CLS.
Weiß nicht, ich dachte, da muss man aufpassen. Also werde ich es anpassen.
Metatags kann ich ja trotzdem schreiben, aber die Description find ich schon wichtig. Wirkt die sich auch aufs Ranking aus mit den Descriptions?
Metatags werden für das Ranking bei den großen Suchmaschinen ignoriert und nur als Fallback verwendet um eine Beschreibung zu liefern.
Doch sie bieten eine sehr umfangreiche api, zudem ssh Zugriff und etliche Programmiersprachen on Board.
Davon sieht man nichts in ihren offiziellen Docs, und "etliche Programmiersprachen on Board" hat es noch mehr disqualifiziert, was auf meinen Droplets läuft, entscheide ich.
Für Entwickler definitiv uberspace
Wieso? Auf die schnelle sehe ich keine API und damit ist es für mich als Entwickler raus.