1. Weiterleitung zu NetzLiving.de
  2. Forum
    1. Unerledigte Themen
  3. zum neuen Forum
  • Anmelden
  • Suche
Dieses Thema
  • Alles
  • Dieses Thema
  • Dieses Forum
  • Seiten
  • Forum
  • Erweiterte Suche
  1. Informatik Forum
  2. Software und Anwendungen
  3. Tools und Produktivität

firefox: https als standardprotokoll

  • Kampi
  • 30. Januar 2010 um 21:59
Hallo zusammen,

das Informatik-Forum geht in den Archivmodus, genaue Informationen kann man der entsprechenden Ankündigung entnehmen. Als Dankeschön für die Treue bekommt man von uns einen Gutscheincode (informatikforum30) womit man bei netzliving.de 30% auf das erste Jahr sparen kann. (Genaue Infos sind ebenfalls in der Ankündigung)

Vielen Dank für die Treue und das Verständnis!
  • Kampi
    Punkte
    7.828
    Beiträge
    1.468
    • 30. Januar 2010 um 21:59
    • #1

    beim eingeben von domains/urls laeszt man ja gerne das protokoll weg. wenn man jetzt beispielsweise "http://www.informatik-forum.at" eingibt, landet man auf der http version. ich moechte aber dass er zuerst https probiert und dann http als fallback nimmt.

    mit hilfe von greasemonkey sollts schnell geschrieben sein, aber ich kann mir nicht vorstellen dass auf die idee noch keiner gekommen ist.

    kennt jemand die entsprechende einstellung im firefox oder ein plugin das die funktionalitaet hat? ich hoffe ich war nur zu ungeschickt beim suchen.

  • skinner33
    Punkte
    862
    Beiträge
    168
    • 30. Januar 2010 um 23:10
    • #2
    Zitat von Kampi

    ich moechte aber dass er zuerst https probiert und dann http als fallback nimmt.


    Damit könntest du u.U. teilweise stark einfahren. Wie hier ersichtlich ist, kann es sein das auf einem Server mehrere http vhosts laufen, wegen des systembedingten SSL-Problems, meistens, aber nur einen https vhost.

    Die Wahrscheinlichkeit dafür ist zwar gering, aber es könnte trotzdem mal auftreten.

  • Jensi
    Punkte
    8.486
    Beiträge
    1.649
    • 31. Januar 2010 um 00:33
    • #3

    Das ist wahr. Allerdings müßte man das ja dann auch gleich merken, weil der Domainname, den man eingegeben hat, und der Name im Zertifikat nicht zusammenpassen.

  • skinner33
    Punkte
    862
    Beiträge
    168
    • 31. Januar 2010 um 12:40
    • #4
    Zitat von Jensi

    Das ist wahr. Allerdings müßte man das ja dann auch gleich merken, weil der Domainname, den man eingegeben hat, und der Name im Zertifikat nicht zusammenpassen.

    Nein, wenn das SSL-Zertifikate ein Wildcardzertifikat ist (z.B. *.example.com) wirst du keine Abweichung feststellen können.

  • Jensi
    Punkte
    8.486
    Beiträge
    1.649
    • 31. Januar 2010 um 13:28
    • #5

    Hm ja da hast Du recht. Allerdings weiß ich jetzt gar keine Seite, wo mir ein Sinn für verschiedene Zertifikate für verschiedene Subdomains der gleichen Domain einfällt.

  • pernhard
    Punkte
    1.269
    Beiträge
    244
    • 31. Januar 2010 um 15:02
    • #6

    Ich seh auch ein Problem, daß auf vielen Servern zwar ein http Dämon lauscht, aber kein https Dämon https://www.orf.at/ ist ziemlich tot.

    Wennst da nur http://www.orf.at eintippst und der firefox nur auf 443 probiert -> bad luck

  • Jensi
    Punkte
    8.486
    Beiträge
    1.649
    • 31. Januar 2010 um 15:05
    • #7

    Deshalb hat der Kampi ja gemeint, der Browser soll dann halt Fallback auf HTTP machen, fertig.

    In der Praxis könnt das natürlich lästig werden, weil man bei Seiten, die kein HTTPS haben, erst mal auf den Timeout warten muß, bis das Fallback passiert.

  • pernhard
    Punkte
    1.269
    Beiträge
    244
    • 31. Januar 2010 um 15:26
    • #8

    ... oder irgendeine Testseite dort steht, auf die man nach viel zertifikatgeklicke hinkommt...

    vergleiche
    http://www.linzer.rechtsstudien.at/ und https://www.linzer.rechtsstudien.at/

    :)

  • Kampi
    Punkte
    7.828
    Beiträge
    1.468
    • 31. Januar 2010 um 19:07
    • #9

    danke fuer das zahlreiche feedback.

    noscript hat die funktionalitaet fast dabei. es gibt https rules und ich hab spaszeshalber mal force https auf '*' gesetzt. tja, das wars dann auch schon mit dem surfvergnuegen. http://www.google.com will dann natuerlich auch http://www.google.at (gut, ab auf die whitelist damit) und bei youtube wird es dann schon muehsam. https://www.youtube.com geht ueberhaupt gleich auf google, also auch youtube auf die whitelist. dann gibts natuerlich keine bilder, weil ytimg auch rein will. manches haette sich vielleicht mit dem fallback auf http retten koennen, gewisse schwindliche weiterleitungen machen es aber nahezu unmoeglich wenn man nicht ewig fehler suchen will.

    ich verbuchs mal unter "die idee war gut, die welt noch nicht bereit dafuer". (bzw unter "so einfach hat sich der kleine kampi das grosze internet vorgestellt")

    [edit]

    Zitat von Jensi


    In der Praxis könnt das natürlich lästig werden, weil man bei Seiten, die kein HTTPS haben, erst mal auf den Timeout warten muß, bis das Fallback passiert.


    glaub so ein head get waere verkraftbar. wenns aber so wie bei ytimg ist wo man berge an unterschiedlichen subdomains hat, koennte man wohl einiges ueber caching machen.
    [/edit]

    2 Mal editiert, zuletzt von Kampi (31. Januar 2010 um 19:34)

  • Jensi
    Punkte
    8.486
    Beiträge
    1.649
    • 31. Januar 2010 um 19:40
    • #10
    Zitat von Kampi

    glaub so ein head get waere verkraftbar.


    Reine Geduldsfrage :)

  • gelbasack
    Punkte
    6.525
    Beiträge
    1.241
    • 31. Januar 2010 um 22:11
    • #11

    Squid mit URL-Rewrite und Script, das HTTPS testet? Sollte recht kurz sein, mir wär' aber das Warten aufs Timeout zu mühsam (auch wenn vermutlich 100ms eh das meiste abdecken...)

  • Alex_K
    Punkte
    2.465
    Beiträge
    487
    • 1. Februar 2010 um 10:32
    • #12
    Zitat von Kampi


    glaub so ein head get waere verkraftbar.

    Kommt darauf an wie der Server konfiguriert ist. Oft zeigen http und https auf verschiedene Verzeichnisse. Im schlimmsten Fall gibt dir die https Adresse keinen Fehler zurück, sondern z.B. die Standard Seite des Web-Servers. In so einem Fall kann der Browser dann auch nicht automatisch weiter leiten.

  • Jensi
    Punkte
    8.486
    Beiträge
    1.649
    • 1. Februar 2010 um 15:41
    • #13

    Das wär eigentlich ein Argument dafür, dieses Verhalten in Browsern zum Standard zu machen, dann würden sich solche Fehlkonfigurationen relativ bald aufhören...

  • skinner33
    Punkte
    862
    Beiträge
    168
    • 1. Februar 2010 um 23:40
    • #14
    Zitat von Jensi

    Das wär eigentlich ein Argument dafür, dieses Verhalten in Browsern zum Standard zu machen, dann würden sich solche Fehlkonfigurationen relativ bald aufhören...

    Genauso wie jeder Browser die CSS/JS Standards implementiert?

  • Plantschkuh!
    Punkte
    6.173
    Beiträge
    1.181
    • 2. Februar 2010 um 00:03
    • #15
    Zitat von skinner33

    Genauso wie jeder Browser die CSS/JS Standards implementiert?


    Dem Browserhersteller tuts ja nicht weh, wenn sein Browser Mist ist; die meisten seiner User sind DAUs, die weder wissen, daß ihr Browser Mist ist, noch wo sie einen besseren herkriegen. Ist nicht zu vergleichen mit einer Website, der von heute auf morgen alle User ausbleiben würden, wenn sie falsch konfiguriert wär.

  • Kampi
    Punkte
    7.828
    Beiträge
    1.468
    • 18. Juni 2010 um 14:34
    • #16

    brav, da hatte wohl endlich jemand die gleiche idee...
    http://www.heise.de/open/meldung/A…ll-1025400.html

  1. Datenschutzerklärung
  2. Impressum