Wie funktioniert Matrix technisch?
Eigenes Protokoll
Wie funktioniert Matrix technisch?
Eigenes Protokoll
Diese KI muss sehr komplex sein
Wenn du bessere Platzierung möchtest, verbessere deine mobile freundlichkeit, denn das ist heute der am schwersten wiegende Punkt. Liefere eine sitemap aus die die Crawler von Google, Bing etc sich nehmen können und aktualisiere diese ständig/regelmäßig.
ahhhh clean. Sowas brauch ich auch
Als Info dazu, das ganze basiert auf einem trait der dem Model zugewiesen ist, und erzeugt im Hintergrund dadurch einen Eintrag in der sitemap die dann aktualisiert wird.
Ganz nice dazu mal
Wie geht das denn, kann ich das als Laie?
Ich glaub da muss man sich schon richtig gut auskennen.
Ich kenne mich nicht aus, weiß das auch nur dank Google:
@font-face {
font-family: "Harlow";
src: url('../fonts/HarlowSolidItalicItalic.ttf') format('truetype');
font-weight: normal;
font-style: normal;
font-display: swap;
}
das Zauberwort hier heißt "Front-Display", so kann man definieren, was mit Texten passiert, wo eine Webfont verwendet wird, im oben gezeigten Beispiel lädt die Seite und zeigt die Texte in einer systemfont an, nach dem fertigen laden werden diese dann ausgetauscht.
Kann nicht mal einmal etwas einfach sein?
Dank KI Erkennung ist schummeln schwer, wer sich an die Vorgaben hält kommt einfach weiter
Ich habe die Homepage ja erstellen lassen, war teuer genug.
Ich hoffe doch nicht auch noch für das CMS bezahlt.
Wie ich die Schriften einbinde, weiß ich nicht, wenn ich da was ändern würde, würden sich die Werte verbessern?
Wenn man den Draw Zeitpunkt nach vorne verschiebt, da der Content schon gerendert wird bevor alles geladen ist, verbessert das den Score ungemein.
Und wie mache ich das mit den Bildern mit der Größenangabe? Muss jedes Bild eine Angabe haben?
<img src="path/to/image.webp" width="42" height="42" alt="" />
Als Beispiel.
Und ja jedes Bild braucht diese Angabe, durch die Angaben verhindert man das die Bilder den gesamten Inhalt der Seite verschieben sobald sie geladen sind, das nennt man auch CLS. Gibst du eine Höhe/Breite an, halten Browser den Bereich entsprechend frei und zeigen anschließend das Bild an.
Kann nicht sein. Nehmen wir mal an du wärst meine Konkurenz. Dann poste ich einfach überall deinen Link und schon sperrt google deine website und ich bin einen konkurenten los. Dann kann so nicht sein.
So einfach ist das nicht ????
Automatiesiert? wie geht das?
Ist doch gut, dann kanst du ganz viele Nachrichten mit Backlinks schicken.
Und dann von Google, MS und Co. gesperrt werden wegen den Backlinks?
hab ich schon gemacht. Es ist nur schwirig, da für neue Diskussionen ständig neue URLs entstehen. Dynmaische Website halt.
Und? Ich generiere die Sitemap dauerhaft xD
Ich hät nicht gedacht , dass es so schwer ist google ein bischen auzutricksen. und das mit Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher hab ich tatsächlich nicht bedacht. man bräuchte ein script, dass die ganze zeit anfragen mit manipulierten headers schickt.
Oder man lässt es, und trägt brav eine sitemap bei Google ein.
Ohne ist Google sogar so effektiv, das sie eine Mastodon Instanz gleich mit crawlen.
Ich fand das meine Beiträge eigendlich ganz serious und glaubwürdig klangen, keine ahnung warum diese komischen admins alle so außrasten.
Ich weiß nicht was du da geschrieben hast, aber Links zu irgendwelchen Seiten einfügen wollen die nichts zu dem im Lexikon Eintrag behandelten Thema beitragen ist nun Mal unerwünscht und damit Spam.
Was ist penality? Und wie soll Google die Qualität der Seite ohne Backlinks bewerten? Die Link Klick zahlen in der suche selber hab ich auch manipuliert, immer abwechselnt neue ip, suchen, klicken und das bestimmt 50 mal. Bist du etwa dieser "Noluspammo " Administartor auf Wikipedia?
Strafe.
Und Suchmaschinen wie Google gehen längst mit NLPs und mehr an solche Dinge Ran um die Qualität zu beeinflussen, Backlinks sind an dem Tag Geschichte geworden als man anfing sich in Linklisten einzutragen um sie zu steigern. Ein übliches vorgehen, wenn betrieber anfangen das System auszunutzen, wird es geändert um allen die gleiche Chance zu bieten. Es gibt haufenweise Infos über echtes SEO da draußen.
Und mit deiner "Fake clicks" Aktion, hast du es noch mehr abgewertet, denn nur weil deine IP anders ist, bist und bleibst du die selbe Person, oder hast du deine Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher auch ständig gewechselt?
Oh, das das so schnell geht hatte ich nicht gedacht
Bei deinem gespamme dort? Wundert es dich?
warum? wikipedia hat doch voll das gute google ranking
Und mit der Aktion, hast du dir penality eingefangen.
Die Zeiten von Backlinks sind seit 10 Jahren vorbei.
Yeah eiegner Wikipedia Artikel:
Freie-Diskussion – WikipediaFragt sich nur wie lange noch. Hoffentlich scannt google den baklink bevor die seite gelöcht wird.
PS: Solche Backlinks schaden nur
Ach so, gut dass du es mir erklärst.
Da steht irgendwas von Bootstrap oder so, kann das sein?
Laut aktueller Analyse wurde Bootstrap 4.3.1 verwendet (ziemlich alt).
Ansonsten erkenne ich Matomo Analytics, was ohne Zustimmung versucht wird zu laden, wobei ich nicht weiß ob das bei lokalen Analyse Tools eine Zustimmung benötigt (geblockt wird es wegen Tracking dennoch).
Ja tatsächlich ist der mobile Wert unter 50 im Score.
Lange Ladezeiten gehen eigentlich, aber warum ist es mobil so viel langsamer als am Desktop PC?
Und was bedeutet Content Layout Shift?
Am längsten Laden deine Custom Fonts wie RogueScript, Georgia und Montserrat, da würde ich schauen ob es wirklich eine WebFont braucht, oder ob man einfach auf Systemfonts setzen könnte.
Einige Bilder stellst du auch als JPG oder PNG zur Verfügung statt dort ebenfalls auf WebP oder AVIF zu setzen, letzteres ist jedoch nicht so verbreitet wie WebP.
Die WebFonts verursachen auch eine Abwertung, da sie den FCP verzögern (First Contentful Paint, der Zeitpunkt wenn das erste mal etwas gerendert wird) und auch den LCP erhöhen (Largest Contentful Paint) da nach dem FCP die WebFonts reingeladen werden und erneut alle Schriften gerendert werden.
Was ebenfalls belangt wird, sind die fehlenden Größenangaben für Bilder (Höhe/Breite) und das ungenutzte CSS, durch die Fehlenden Angaben zu Höhe/Breite bei Bildern kommt es zu dem oben schon erwähnten CLS, was bedeutet das Nachladende Bilder den Content dann nochmals verschieben.
Ein gutes Beispiel sieht man für dieses "Vergehen" auch in meiner Galerie:
(Sollte das Bild sofort laden.... nutze die Zufallsfunktion)
Dort wird ebenfalls aktuell keine Maße mitgeliefert, und da ich die Bilder "on the fly" generiere, werden sie nachgeladen und führen so zu CLS.
Weiß nicht, ich dachte, da muss man aufpassen. Also werde ich es anpassen.
Metatags kann ich ja trotzdem schreiben, aber die Description find ich schon wichtig. Wirkt die sich auch aufs Ranking aus mit den Descriptions?
Metatags werden für das Ranking bei den großen Suchmaschinen ignoriert und nur als Fallback verwendet um eine Beschreibung zu liefern.
Doch sie bieten eine sehr umfangreiche api, zudem ssh Zugriff und etliche Programmiersprachen on Board.
Davon sieht man nichts in ihren offiziellen Docs, und "etliche Programmiersprachen on Board" hat es noch mehr disqualifiziert, was auf meinen Droplets läuft, entscheide ich.
Für Entwickler definitiv uberspace
Wieso? Auf die schnelle sehe ich keine API und damit ist es für mich als Entwickler raus.
Sie läuft jetzt auf HTML5.
Es kann übrigens nichts auf "HTML5" laufen
das bezeichnet bei HTML nur das Sprachlevel, da HTML nur eine Auszeichnungssprache ist (sagt auch der Name: HyperText Markup Language)
Ich habe mal geschaut, der SEO Score ist um 20 Punkte gefallen, das ist schon extrem, oder?
Klingt nach Nicht Mobile-Friendly, zu viele Backlinks, lange Ladezeiten, Werbung und vor allem nach CLS (Content Layout Shift)
Und was mir noch aufgefallen ist, die Seiten haben keine Description und keine Keywords, das muss dann angepasst werden, oder?
Wie geht man da genau vor, jeden Tag ein paar Seiten und dann immer hochladen?
Meta-Tags sind Suchmaschinen mittlerweile größtenteils egal, das sind nur Fallbacks. Aber wieso beim anpassen immer nur ein paar pro Tag? Wieso nicht "alles"?
Keiner von beiden, P/L ungenügend, zu wenig Bandbreite... Keine API
ich hasse flexbox
Tun wir das insgeheim nicht alle ![]()
Eigentlich nicht so schwer:
<nav class="hidden lg:flex lg:space-x-8 lg:py-2" aria-label="Global">
<Link
v-for="item in navigation"
:key="item.name"
:href="item.href"
:class="[$page.props.ziggy.location.includes(item.href) ? 'bg-pink-900 text-white' : 'text-gray-300 hover:bg-gray-700 hover:text-white', 'inline-flex items-center rounded-md px-4 py-2 font-medium']"
:aria-current="item.current ? 'page' : undefined"
>
{{ item.name }}
</Link>
</nav>
Alles anzeigen
Aktuell Versuche ich zB von Grid auf Flexbox umzusteigen, wie man auch bei dem hier sehen kann