• Login
  • Register
  • Search
  1. Dashboard
  2. Forum
    1. Unresolved Threads
  3. Members
    1. Recent Activities
    2. Users Online
    3. Team-Mitglieder
    4. Trophy
    5. Search Members
  4. Lexicon
This Thread
  • Everywhere
  • This Thread
  • This Forum
  • Articles
  • Pages
  • Forum
  • Lexikon
  • More Options
  1. Informatik Forum
  2. Software und Anwendungen
  3. Tools und Produktivität

firefox: https als standardprotokoll

  • Kampi
  • January 30, 2010 at 9:59 PM
  • Kampi
    27
    Kampi
    Mitglied
    Reactions Received
    193
    Points
    7,828
    Posts
    1,468
    • January 30, 2010 at 9:59 PM
    • #1

    beim eingeben von domains/urls laeszt man ja gerne das protokoll weg. wenn man jetzt beispielsweise "http://www.informatik-forum.at" eingibt, landet man auf der http version. ich moechte aber dass er zuerst https probiert und dann http als fallback nimmt.

    mit hilfe von greasemonkey sollts schnell geschrieben sein, aber ich kann mir nicht vorstellen dass auf die idee noch keiner gekommen ist.

    kennt jemand die entsprechende einstellung im firefox oder ein plugin das die funktionalitaet hat? ich hoffe ich war nur zu ungeschickt beim suchen.

    Willfähriges Mitglied des Fefe-Zeitbinder-Botnets und der Open Source Tea Party.

  • skinner33
    9
    skinner33
    Mitglied
    Reactions Received
    22
    Points
    862
    Posts
    168
    • January 30, 2010 at 11:10 PM
    • #2
    Quote from Kampi

    ich moechte aber dass er zuerst https probiert und dann http als fallback nimmt.


    Damit könntest du u.U. teilweise stark einfahren. Wie hier ersichtlich ist, kann es sein das auf einem Server mehrere http vhosts laufen, wegen des systembedingten SSL-Problems, meistens, aber nur einen https vhost.

    Die Wahrscheinlichkeit dafür ist zwar gering, aber es könnte trotzdem mal auftreten.

    µC-Leitung

  • Jensi
    28
    Jensi
    Mitglied
    Reactions Received
    141
    Points
    8,486
    Posts
    1,649
    • January 31, 2010 at 12:33 AM
    • #3

    Das ist wahr. Allerdings müßte man das ja dann auch gleich merken, weil der Domainname, den man eingegeben hat, und der Name im Zertifikat nicht zusammenpassen.

  • skinner33
    9
    skinner33
    Mitglied
    Reactions Received
    22
    Points
    862
    Posts
    168
    • January 31, 2010 at 12:40 PM
    • #4
    Quote from Jensi

    Das ist wahr. Allerdings müßte man das ja dann auch gleich merken, weil der Domainname, den man eingegeben hat, und der Name im Zertifikat nicht zusammenpassen.

    Nein, wenn das SSL-Zertifikate ein Wildcardzertifikat ist (z.B. *.example.com) wirst du keine Abweichung feststellen können.

    µC-Leitung

  • Jensi
    28
    Jensi
    Mitglied
    Reactions Received
    141
    Points
    8,486
    Posts
    1,649
    • January 31, 2010 at 1:28 PM
    • #5

    Hm ja da hast Du recht. Allerdings weiß ich jetzt gar keine Seite, wo mir ein Sinn für verschiedene Zertifikate für verschiedene Subdomains der gleichen Domain einfällt.

  • pernhard
    11
    pernhard
    Mitglied
    Reactions Received
    14
    Points
    1,269
    Posts
    244
    • January 31, 2010 at 3:02 PM
    • #6

    Ich seh auch ein Problem, daß auf vielen Servern zwar ein http Dämon lauscht, aber kein https Dämon https://www.orf.at/ ist ziemlich tot.

    Wennst da nur http://www.orf.at eintippst und der firefox nur auf 443 probiert -> bad luck

    I used to be an owl...

    881 :rock:

  • Jensi
    28
    Jensi
    Mitglied
    Reactions Received
    141
    Points
    8,486
    Posts
    1,649
    • January 31, 2010 at 3:05 PM
    • #7

    Deshalb hat der Kampi ja gemeint, der Browser soll dann halt Fallback auf HTTP machen, fertig.

    In der Praxis könnt das natürlich lästig werden, weil man bei Seiten, die kein HTTPS haben, erst mal auf den Timeout warten muß, bis das Fallback passiert.

  • pernhard
    11
    pernhard
    Mitglied
    Reactions Received
    14
    Points
    1,269
    Posts
    244
    • January 31, 2010 at 3:26 PM
    • #8

    ... oder irgendeine Testseite dort steht, auf die man nach viel zertifikatgeklicke hinkommt...

    vergleiche
    http://www.linzer.rechtsstudien.at/ und https://www.linzer.rechtsstudien.at/

    :)

    I used to be an owl...

    881 :rock:

  • Kampi
    27
    Kampi
    Mitglied
    Reactions Received
    193
    Points
    7,828
    Posts
    1,468
    • January 31, 2010 at 7:07 PM
    • #9

    danke fuer das zahlreiche feedback.

    noscript hat die funktionalitaet fast dabei. es gibt https rules und ich hab spaszeshalber mal force https auf '*' gesetzt. tja, das wars dann auch schon mit dem surfvergnuegen. http://www.google.com will dann natuerlich auch http://www.google.at (gut, ab auf die whitelist damit) und bei youtube wird es dann schon muehsam. https://www.youtube.com geht ueberhaupt gleich auf google, also auch youtube auf die whitelist. dann gibts natuerlich keine bilder, weil ytimg auch rein will. manches haette sich vielleicht mit dem fallback auf http retten koennen, gewisse schwindliche weiterleitungen machen es aber nahezu unmoeglich wenn man nicht ewig fehler suchen will.

    ich verbuchs mal unter "die idee war gut, die welt noch nicht bereit dafuer". (bzw unter "so einfach hat sich der kleine kampi das grosze internet vorgestellt")

    [edit]

    Quote from Jensi


    In der Praxis könnt das natürlich lästig werden, weil man bei Seiten, die kein HTTPS haben, erst mal auf den Timeout warten muß, bis das Fallback passiert.


    glaub so ein head get waere verkraftbar. wenns aber so wie bei ytimg ist wo man berge an unterschiedlichen subdomains hat, koennte man wohl einiges ueber caching machen.
    [/edit]

    Willfähriges Mitglied des Fefe-Zeitbinder-Botnets und der Open Source Tea Party.

    Edited 2 times, last by Kampi (January 31, 2010 at 7:34 PM).

  • Jensi
    28
    Jensi
    Mitglied
    Reactions Received
    141
    Points
    8,486
    Posts
    1,649
    • January 31, 2010 at 7:40 PM
    • #10
    Quote from Kampi

    glaub so ein head get waere verkraftbar.


    Reine Geduldsfrage :)

  • gelbasack
    25
    gelbasack
    Mitglied
    Reactions Received
    90
    Points
    6,525
    Posts
    1,241
    • January 31, 2010 at 10:11 PM
    • #11

    Squid mit URL-Rewrite und Script, das HTTPS testet? Sollte recht kurz sein, mir wär' aber das Warten aufs Timeout zu mühsam (auch wenn vermutlich 100ms eh das meiste abdecken...)

  • Alex_K
    15
    Alex_K
    Mitglied
    Reactions Received
    10
    Points
    2,465
    Posts
    487
    • February 1, 2010 at 10:32 AM
    • #12
    Quote from Kampi


    glaub so ein head get waere verkraftbar.

    Kommt darauf an wie der Server konfiguriert ist. Oft zeigen http und https auf verschiedene Verzeichnisse. Im schlimmsten Fall gibt dir die https Adresse keinen Fehler zurück, sondern z.B. die Standard Seite des Web-Servers. In so einem Fall kann der Browser dann auch nicht automatisch weiter leiten.

    Total world domination is proceeding as planned.

  • Jensi
    28
    Jensi
    Mitglied
    Reactions Received
    141
    Points
    8,486
    Posts
    1,649
    • February 1, 2010 at 3:41 PM
    • #13

    Das wär eigentlich ein Argument dafür, dieses Verhalten in Browsern zum Standard zu machen, dann würden sich solche Fehlkonfigurationen relativ bald aufhören...

  • skinner33
    9
    skinner33
    Mitglied
    Reactions Received
    22
    Points
    862
    Posts
    168
    • February 1, 2010 at 11:40 PM
    • #14
    Quote from Jensi

    Das wär eigentlich ein Argument dafür, dieses Verhalten in Browsern zum Standard zu machen, dann würden sich solche Fehlkonfigurationen relativ bald aufhören...

    Genauso wie jeder Browser die CSS/JS Standards implementiert?

    µC-Leitung

  • Plantschkuh!
    24
    Plantschkuh!
    Mitglied
    Reactions Received
    163
    Points
    6,173
    Posts
    1,181
    • February 2, 2010 at 12:03 AM
    • #15
    Quote from skinner33

    Genauso wie jeder Browser die CSS/JS Standards implementiert?


    Dem Browserhersteller tuts ja nicht weh, wenn sein Browser Mist ist; die meisten seiner User sind DAUs, die weder wissen, daß ihr Browser Mist ist, noch wo sie einen besseren herkriegen. Ist nicht zu vergleichen mit einer Website, der von heute auf morgen alle User ausbleiben würden, wenn sie falsch konfiguriert wär.

    *plantsch*

  • Kampi
    27
    Kampi
    Mitglied
    Reactions Received
    193
    Points
    7,828
    Posts
    1,468
    • June 18, 2010 at 2:34 PM
    • #16

    brav, da hatte wohl endlich jemand die gleiche idee...
    http://www.heise.de/open/meldung/A…ll-1025400.html

    Willfähriges Mitglied des Fefe-Zeitbinder-Botnets und der Open Source Tea Party.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!

Register Yourself Login

  1. Privacy Policy
  2. Legal Notice
Website-Design: Fury - © NetzLiving GmbH