Beiträge von a9bejo

    Der hat halt einfach auf Xinerama verzichtet und einfach mehrere wms in einer xsession laufen. Genau das mache ich jetzt auch, aber da lebt man halt mit einigen Einschraenkungen (man bekommt ein Fenster nicht von einem Monitor zum anderen, kann keine zwei Firefox Views auf verschiedenen Monitoren haben). Ratpoison macht das besser.

    Bin jetzt aber trotzdem erstmal auf wmii umgestiegen, vor allem wegen der Schnittstellen fuers scripting. Sehr schoen geloest find ich das.

    wirf mal einen blick auf "wmii". anfangs vielleicht gewoehnungsbeduerftig aber einiges produktiver wie die klassischen WMs.


    wmii habe ich mir jetzt angeschaut, und er gefaellt mir eigentlich sehr gut. Leider hat wmii offenbar ganz miesen Support fuer 2+ Monitore. mit Xinerama werden alle Fenster auf die ganze Flaeche verteilt, und ohne Xinerama kann ich zwar Apps auf dem zweiten Monitor starten (wenn ich die DISPLAY Variable dazu setze, also z.B. DISPLAY="0.1" pidgin), aber dann krieg ich den focus nicht auf den zweiten Monitor. Ratpoison kommt damit besser zurecht.

    Hmm... du schreibst, dass du Probleme hattest, deine Monitore zum Laufen zu bringen. Haben die vielleicht ein Problem mit den Edid-Werten? Dann werden vielleicht auch die DPI falsch erkannt. Du könntest mal versuchen, die richtig zu setzen. Wenn man zwei TFTs unterschiedlicher Größe anhängt, rechnet er mit einem davon die DPI aus, das kann dann zu groß/klein werden.

    Ich hatte wirklich Probleme mit den EDID Werten: Der alte 17' spuckt da naemlich nur Bloedsinn aus, deshalb muss ich im Grafikkartentreiber sagen, dass er keine EDID Werte verwenden soll. Jetzt ist es aber offenbar so, das ich diese Einstellung nicht auf einen Monitor beschraenken kann: D.h. ich musste die Werte fuer den 22' Acer auch manuell eingeben.

    Ich habe mir aber die Werte ziemlich genau zusammengesucht: Fuer den LG (17') habe ich sie aus dem Manual zusammengesetzt, und fuer den Acer habe ich eine gute Quelle gefunden.


    Wenn ich mit der ~/.Xdefaults nichts retten kann, schau ich nochmal ob ich da noch was drehen kann.

    Vielleicht kannst mit der "~/.Xdefaults" etwas retten?


    danke, das werd ich mal ausprobieren (wenn ich wieder zuhause bin).

    wirf mal einen blick auf "wmii". anfangs vielleicht gewoehnungsbeduerftig aber einiges produktiver wie die klassischen WMs.

    Hoert sich ein wenig an wie Ratpoison, den ich mir schon installiert habe. wmii schau ich mir aber auch noch an ;)

    E17 ist aber auch ziemlich cool. Halt noch deutlich pre-beta, aber es sind ein paar sehr praktische Dinge dabei. Ich bin ja eigentlich voellig zufrieden mit Gnome. Ich benutze halt die meisten Features ueberhaupt nicht; bin fast nur in Emacs, Shell und Firefox. Darum mal ein kurzer Abstecher zu den schlanken Alternativen.

    Du kannst ja deine xorg.conf sichern und zurückspielen, es geht ja nur darum eine Fehlerquelle auszuschließen.

    hab ich gemacht: auf dem einen Monitor, der nachher noch erkannt wird, ist das Problem immer noch zu sehen.

    Btw, nicht unwichtig: Nicht nur E17 ist eine development version in meinem setup. Ich hab hier auch Gutsy laufen.

    Btw, Hier ist meine xorg.conf. Vielleicht faellt ja jemanden etwas auf...

    Ich würde folgendes versuchen:

    I) Leg mal nen neuen User an und schau obs da auch Probleme gibt.
    II) Versuche den Xserver neu zu konfigurieren mit "sudo dpkg-reconfigure xserver-xorg".

    Danke fuer die Tips.

    Am User liegt es nicht, und meine xorg.conf lasse ich sicher nicht von einem script neukonfigurieren: Ich habe einen ganzenTag daran rumgespielt bis ich X11 so weit hatte, dass mein Monitorsetup korrekt angezeigt wird.

    Ich hab mir gestern mal enlightment 0.17 development version (E17) installiert, und dabei ist mir aufgefallen, das bei jedem windows manager ausser gnome (ich habe ausser E17 noch XFCE ausprobiert) der system font so klein ist, das ich die Schrift kaum mehr lesen kann. Also ich muss z.b. im Firefox die minimum font size auf 26 stellen, damit ich eine halbwegs lesbare Schrift hinbekomme. Im gnome-terminal oder in Eclipse ist es genauso furchtbar. In Pidgin und Emacs ist die Schrift ganz normal.

    Ich hab mal eine gtkrc-2.0 angelegt und da an der fontsize gebastelt. Ich hab in der xorg.conf irgendwelche Pfade zu einem 100dpi ordner hinzugefuegt (und wieder gekillt, weil das nichts gebracht hat und angeblich auch nicht mehr gemacht werden soll). Ausserdem gibt es natuerlich auch in den einzelnen WMs Moeglichkeiten zur Konfiguration: Diese Einstellungen aendern aber immer nur die Fonts in Titelleisten, Popups usw.

    Weiss jemand, wie und wo ich diese systemweiten fonts manipulieren kann?

    Hier ist eine Loesungen in Ruby. Das Script kann man entweder mit Ruby auf C oder mit Ruby auf Java ausfuehren.

    Wenn man das Script mit Ruby auf Java ausfuehrt, dann erfuellt es die Anforderungen genau, d.h. das Ergebnis wird tatsaechlich in einem Popup ausgegeben, wenn neue Dateien gefunden wurden.

    Was ich fuer ziemlich unsinning halte: Standard output reicht voellig aus, und das Popup macht das script weniger flexibel. Wenn man das script nicht mit JRuby sondern mit MRI (C Ruby) ausfuehrt, dann bekommt man kein Popup sondern eine ganz normale Ausgabe auf STDOUT.

    Aufruf sieht so aus:

    Code
    ruby searchandnotify.rb FOLDER DAYS OUTPUT_FILE

    wobei FOLDER der name des Ordners ist, in dem sich die Dateien befinden, DAYS ist das Interval in Tagen und OUTPUT_FILE ist der Name der Datei, in die die Ergebnisse geschrieben werden.


    Die JRuby Variante startet man ganz genauso, nur eben mit jruby anstatt mit ruby.

    Also z.b.

    Code
    jruby searchandnotify.rb /home/trash/msword 40 ergebnisse.csv

    sucht alle Dateien im Ordner /home/trash/msword, mit einem Datum innerhalb der letzten 40 Tage und speichert das Ergebnis in 'ergebnisse.csv' .

    Ich glaube nicht, dass die paar kurzen Texte, die Du in einem Betriebsystem findest, beim Lernen einer Sprache wirklich ausschlaggebend sind.

    informatik-forum.at lesen ist zum Deutsch lernen sicher besser. Nur meine Beitraege darfst Du niemals lesen: Die sind meistens voller Rechtschreibfehler. ;)

    Was den Alltag in Oesterreich betrifft ist ein gutes Deutsch sicher sehr wichtig, aber fuer die Informatik finde ich English viel wichtiger.

    Wenn man z.B 3 GB RAM hat, was kann man da einstellen (bei min und max)?

    Ich wuerde die Werte so lassen, wie sie in Europa eingestellt sind:
    initial heap size = 40m, und max heap size auf 512m . Eventuell kannst Du noch etwas rausholen, wenn Du die maxsize auf 1GB anhebst. Das kommt halt darauf an, was Du auf dem Rechner sonst noch so laufen hast.

    Du darfst nicht vergessen das die Software, die Du in Eclipse baust, beim Testen in einer eigenen virtuellen machine gestartet wird.
    D.h wenn Dein Betriebsystem + Deine IDE + deine anderen Apps zusammen schon deine Reserven fast ausfuellen, dann veranstaltet das Betriebsystem eine disk swapping party in slow motion, wenn Du Tests ausfuehrst.

    Ein weiteres Problem ist, das der Garbage Collector den ganzen Abfall ja auf jeden Fall irgendwann mal aufraumen muss. Mit einer grossen Heap Size passiert das eben seltener, aber dafuer ist es dann auch mehr Arbeit.


    [ Java Tuning Whitepaper ], [ Tuning Garbage Collection with the 5.0 Java[tm] Virtual Machine ]

    Was Du mit Deinem Applet machen darfst und was nicht, kannst Du hier nachlesen: http://java.sun.com/sfaq/#allowWrite . Kurz gesagt: Wenn Du das Applet local auf der Platte hast, dann darfst Du auch damit auf das Dateisystem schreiben. Warum soll es denn gerade ein Applet sein, vor allem wenn das local laeuft?

    Abgesehen von den Zugriffsrechten weiss ich jetzt nicht genau, wo Du dir schwer tust. Wenn Du gerade ein Spiel programmiert hast, dann sollte das Speichern in und lesen von einer Datei doch auch noch klappen?

    Dieser Ratschlag laesst sich verallgemeinern: Wenn man Java Programme ausfuehrt oder entwickelt, sollte man immer ein Auge auf die Speichergrenzen werfen, mit denen die JVM ausgefuehrt wird.

    Eclipse 3.3 (Europa) wird uebrigens gleich mit 512 MB Heap Size ausgeliefert.

    Hier mein Desktop. Verteilt ist das ganze auf einen 17'(links) und einen 22' Monitor(rechts)
    (Die doppelte taskleiste links unten hat mir imagemagick beim Erstellen des Screenshots da hingezaubert :( ).


    Zitat von MaxAuthority


    PS: Sorry fuer die ueberbreite, aber 1024x768 als max fuer attachments find ich schon dumm im info-forum, wenns eh eine 1MB beschraenkung gibt.

    [...]

    Also wenn mich jemand zuhause besucht und mir ein Produkt aufschwatzen will, dann fliegt die Tuer gleich vor der Nase zu. Und wenn mich Silverserver mal anrufen wuerde, nur um Werbung zu machen, dann wuerde ich mir sofort was neues suchen.

    Sowas von aufdringlich aber auch. Es ist doch schon schlimm genug wenn der Spam mit der Post kommt.

    Wenn ich mir diesen Thread anschaue, dann koennte der Fehler daher ruehren, dass die angegebene content-length im Header nicht mir dem tatsaechlichen Inhalt des Dokuments uebereinstimmen. Beim Auslesen verlaesst sich der Inputstream auf die Angabe im HTTP Header.

    Versuch vielleicht mal:

    Code
    ...
    "Content-Length: " + data.getBytes("UTF-8").length + "\r\n" +
    ...

    Die Vermutung ist das, wenn Du 'data' in ein UTF-8 byte array kodierst, die Laenge nicht mehr mit deiner Angabe im Header uebereinstimmt. Strings sind ja in Java als 2 Byte UTF-16 kodiert.

    Hallo,

    Umlaute und Sonderzeichen sind in XML Elementnamen erlaubt. Ich habe Dein XML auch mit xmllint geprueft und im Firefox getestet (Ich habe natuerlich vorher die - Zeichen vor den Elementnamen entfernt.). Da gab es wie erwartet keinerlei Probleme.

    Welchen Browser verwendest Du denn, und welches Betriebsystem? Und wenn Du das weisst: Welches Characterencoding ist auf Deinem System eingestellt? Und, ganz wichtige Frage: Was genau bekommst Du denn im browser angezeigt, wenn Du die Datei oeffnest? Ist da einfach nur alles weiss, oder kommt da eine Fehlermeldung?

    Versuch auf jeden Fall einmal, in die erste Zeile eine XML deklaration dazuzuschreiben,am besten gleich mit einem encoding Attribut:

    Vielleicht benoetigt das Dein Browser ja die Deklaration, um das XML document als solches zu erkennen.