Die Berkeley Open Infrastructure for Network Computing (BONIC) ist eine Software-Plattform für verteiltes Rechnen.Die BOINC-Plattform wird an der Universität Berkeley entwickelt und ermöglicht es, vielen tausend Computern über das Internet oder Intranet verfügbar zu machen. Dies geschieht in Form von Projekten, die meist gemeinnützig arbeiten und von Universitäten oder anderen Institutionen betreut werden.
Cruncher über Netzwerk
- Dieses Thema hat 16 Antworten und 4 Teilnehmer, und wurde zuletzt aktualisiert vor 7 Jahren, 2 Monaten von fax.
-
AutorBeiträge
-
-
20. April 2016 um 11:04 Uhr #503634badgoesTeilnehmer
hi @ all
da die Themen schon älter sind für das was ich vor habe mache ich mal einen neuen Thread auf.
Und zwar ich habe derzeitig mehrere Rechner Systeme zur Verfügung diese würde ich gerne über Netzwerk koppeln, was nicht das Problem ist.
Jedoch sollten die alle Daten wie Betriebssystem über Netzwerk beziehen genauso wie die Boinc Daten, und alles dann wieder auf einen Server wieder ablegen sodass im Falle eines Neustarts alles wieder vom Server bezogen werden kann. In anlehnung an das schon vorhandene Projekt EmK2
Dieses vorhaben betrifft derzeitig einen I7 2600 K mit 2 GTX 960 einen N3700 und einen i7 4770 mit Intel GPU –> zusammen macht das 20 CPU Threads sowie 2 Nvidia Cores.
Ich hoffe das sich jemand bereit erklärt mir bei dem Thema ein wenig unter die arme zu greifen.mfg
-
20. April 2016 um 19:04 Uhr #957883Raffy23Teilnehmer
Hi,
leider gibt es zu solchen System nicht wirklich ein Kochrezept zum Zusammenbauen und Betreiben.
Im Wiki findest du zum Aufbau des EMKs eine sehr gute Dokumentation, darunter auch zur Software.Wenn ich mir so ansehe was alles auf dem EMK bzw dem Happywetter.at Blade läuft kann ich dir nur Raten dich ein bisschen in Folgende Materie einzulesen:
- Linux (nicht nur das System, sondern auch der Bootprozess und wie man sich ein eigenes Image basteln kann)
- PXE (wird für den Netzwerkboot gebaucht)
- Dhcp/Dns/Tftp (Wird alles beim PXE Boot und dann vom Bootloader gebraucht)
- NFS/NDB (Beides Protokolle welche es ermöglichen das root Dateisystem von einem nicht lokalen Ort zu laden)
Weiteres solltest du dir noch um Folgendes Gedanken machen:
- Welches OS soll auf dem Server / den Rechnern im Cluster laufen?
Linux lässt sich da sehr flexibel anpassen, mit Windows sieht dies schon anders aus …
- Kannst du mit deiner Hardware vom Netzwerk Booten (d.h. PXE-Boot, welcher gebraucht wird um ein OS vom einen Server zu laden)?
Wenn nicht kannst du auch von einem kleinen USB-Stick Booten und dann die Verzeichnisse vom Server laden ….
- Hast du die Möglichkeit den Cluster auch physikalisch von deinem restlichen Netzwerk zu trennen?
Wenn die Möglich ist, ist es einfacher einen DHCP/DNS Server zu konfigurieren, damit dieser auch richtige BOOTP Pakte sendet, jedoch müsste man dann ein NAT oder ähnliches konfigurieren.
- Es gibt auf Linux mehre Möglichkeiten Daten auf Netzlaufwerken bereitzustellen: NFS, NBD oder sogar mit samba auf einen Windows Share zuzugreifen. Jedes dieser Protokolle hat seine Vor-/Nachteile …
- Wie willst du diesen Cluster steuern?
Wie am Anfang schon erwähnt gibt es kein Kochrezept und dadurch ist die Steuerung dieser Systeme meist ein selbst gebasteltes System aus einer Kombination von Weboberfläche und SSH.
Ich glaube, dass es im Internen Bereich auch noch das ein oder andere Thema gibt welches sich mit diesen Fragen beschäftigt …
mfg Raffy
-
20. April 2016 um 20:04 Uhr #957885badgoesTeilnehmer
danke für die Rückmeldung
Wenn ich mir so ansehe was alles auf dem EMK bzw dem Happywetter.at Blade läuft kann ich dir nur Raten dich ein bisschen in Folgende Materie einzulesen:
Linux (nicht nur das System, sondern auch der Bootprozess und wie man sich ein eigenes Image basteln kann)
PXE (wird für den Netzwerkboot gebaucht)
Dhcp/Dns/Tftp (Wird alles beim PXE Boot und dann vom Bootloader gebraucht)
NFS/NDB (Beides Protokolle welche es ermöglichen das root Dateisystem von einem nicht lokalen Ort zu laden)Also Boot Prozess per PXE habe ich bereits hin bekommen und habe erfolgreich ein Siduction per NBD Booten können
Somit war es mir auch kein Problem bisher die erforderlichen Einstellungen im Server zu machen sowie ein Netzwerk aufzubauen was durch nat zu meinem Hauptnetzwerk durch kommt via 2 Netzwerkkarten im Server.
Was mir massiv Probleme macht ist eine iso zu bauen die alles an Board hat und selbstständig alles nötige vom Server zieht.
alles händisch ausführen war eigentlich nicht meine intension jedoch konnte ich boinc ausführen und starten und dieses durch bionctask / boincmanager vom meinem Hauptrechner im Hauptnetz fernsteuern per static route.
Betriebssystem wäre Linux wohl die einfachere Variante und definitiv die Ressourcen schonendere Varinate. Wobei mir dann die igpu vom 4770 nicht nutzbar wird.
Windows ist halt erstmal nicht so mein Favorit da ich mir den Arbeitsspeicher nicht so voll knallen wollte.auf das interne habe ich keinen Zugriff deswegen wollte ich meine Fragen hier stellen.
-
20. April 2016 um 21:04 Uhr #957891Raffy23Teilnehmer
Hmm mit dieser Distro kenne ich mich leider nicht aus.
Wenn du nicht immer ein ISO übers Netzwerk laden willst kannst du auch eine fixe Installation auf eine Partition bzw Image machen welches du dann über das Netzwerk als root Partition verteilst.
(Aber Achtung, es dürfen nicht mehrere PCs das selbe Image versuchen schreiben zu mounten sonst gibts früher oder später eine unschöne Kernel – Panic)Leider ist das mit dem Imagebau eine sehr langwierige Arbeit die man schwer simpler gestalten kann … die ganzen Treiber und Programme installieren. Besonders wenn man ein “minimales” Image bauen will bemerkt man schnell das es vorkommen kann das einige Projekte Systemdateien benötigen die garnicht im Image sind. War in der Anfangsphase des Happywetter Blades so ^^
Ich würde dir noch Empfehlen einen SSH Server auf jedem Rechner laufen zu lassen, damit du auch von deinem Server aus etwas mehr als nur den Boinc Client steuern kannst. (Mittels X Forewarding kannst du dir auch einen Teil der Grafischen Oberfläche zu dir streamen lassen)
mfg Raffy
-
20. April 2016 um 21:04 Uhr #957890faxTeilnehmer
Wir ziehen bei der Arbeit teilweise Dutzende identische VMs in der Cloud hoch. Die VMs sind nur mit einer Basisversion von Debian vorprovisioniert. Da kümmert sich dann OpenStack bzw. Amazon drum, aber PXE ist vermutlich kein schlechter Ersatz. Evtl. würde Clonezilla auch noch ein bisschen Arbeit sparen.
Die eigentliche Arbeit macht dann Docker. Das lässt sich wesentlich leichter anpassen als jedes Mal ein ISO zu bauen. Ein dedizierter Rechner kümmert sich dann darum, dass Docker auf den VMs seine Container ausführen kann. Docker ist sehr schnell installiert und leicht auszuprobieren.
Evtl. ist auch Vagrant eine gute Alternative. Damit kannst du dir gleich die komplette VM bauen.
-
20. April 2016 um 22:04 Uhr #957895faxTeilnehmer
Ich glaube Clonezilla SE wäre die größte Hilfe. Habe ich persönlich in der Praxis allerdings noch nicht benutzt. Auf einem Rechner installierst du Linux und Boinc so, wie du es dir vorstellst. Dann brauchst du einen Rechner, auf dem der Clonezilla Server läuft. Der Server kann dann den Boinc Rechner clonen und das Image via PXE oder anderen Techniken auf beliebige andere Rechner verteilen und dabei auch anpassen.
-
21. April 2016 um 8:04 Uhr #957896badgoesTeilnehmer
Danke für die vielen Eindrücke und Vorschlägedamit das Thema bei mir mal Fahrt aufnimmt möchte ich das mal solangsam voranbringen.1. Linux scheint die deutlich bessere Option zu sein welche Distro ?2. Wie fertige ich für die Anwendung eine Ideale ISO an oder wie kann ich einen Read only root verteielen sodass ich ein Hauptsystem habe und jeder Rechner der dran hängt sich sein eigenes read & write Partition anlegt3. Falls ich so Änderungen vornehmen muss tausche ich nur das root System und das wars ?Zugriff auf die “Blades” wird dann mit ssh möglich sein und Boinc über Boinc Manager / Boinc Task.
-
22. April 2016 um 21:04 Uhr #957905Raffy23Teilnehmer
- Welche Linux Distribution du verwendest ist eigentlich egal, jedoch würde ich dir empfehlen eine zu wählen in der du dich bereits gut auskennst, da du die ein oder ander tiefgreifenden Systemänderungen machen musst.
-
- Leider kann ich dir zum erstellen der ISO nicht wirklich hilfreiche Tipps geben. Der einfachste Weg aus meiner Sicht wäre, wenn du eine VM oder einen Pc einmal aufsetzt und dann dort alles einrichtest. Von dort kannst du dann diese Pakte in ein ISO geben.
- Für den NBD Root Only Mount kann ich dir nur empfehlen, dass du dir den man Eintrag des NBD-Servers ansiehst. Einfach in Goolge “man nbd-server” eingeben, dann sollte schon was von Ubuntu oder so kommen 😉
Zum Vergleich, der EMK basiert auf Debian Stable während der Happywetter Blade auf einem leeren Arch Linux System basiert … zwischen diesen Distributionen liegen bereits Welten und trotzdem laufen ähnliche System auf beiden.
- Ja im Prinzip, du musst dir nur eine Strategie überlegen wie du dieses austauscht, da wenn jeder der Blades auf nur ein Read-Only System zugreift darfst du dieses nicht verändern wärend ein Blade läuft.
Du kannst es jedoch kopieren und die Änderungen dort machen, dann alle Blades herunterfahren, das Image kopieren und ganz normal wieder starten … es gibt natürlich auch einen anderen Weg um die Downtime zu verringern, jedoch musst du da dann wieder mit einigen Konfigurationsdatein herumspielen ^^
mfg Raffy
-
23. April 2016 um 13:04 Uhr #957911badgoesTeilnehmer
also ich meine mal was gelesen zu haben das ich anhand der mac adresse des Fordernden rechners ihm eine iso bereit stellen kann per nbd server. Dieses würde dann natürlich die ganze Sache extrem vereinfachen da die Systeme nicht gleich sind somit kann ich bei einem die nvidia Treiber mit rein packen bei dem Anderen nicht.Desweiteren wäre jetzt für mich wichtig zu wissen wie ich erstens eine iso so baue das die pakete drin sind die ich brauche gegebenfalls auf den blades zuerst eine installation auf eine platte mache und diese dann als iso ausliefere. Mit dem hintergrund da eine iso ja relativ gut gepackt ist somit weniger speicherplatz auf meinem server nur für die isos verbrenne.und zu guter letzt die “Work Partition” Wo jeder Blade seine Daten ablegt und im falle eines Neustarts alles wieder raus saugt sodass ich nur das Netzteil einschalten muss und nach dem alles hoch gefahren ist alles automatisch wieder anläuft.Das sind so meine Vorstellungen und die Punkte wo es bei mir klemmt.alles was nbd server einrichtung und bereitstellung angeht hab ich bereits soweit geschafft nur halt das was ich oben geschrieben habe nicht so wie ich es mir vorstelle:-)mfg
-
25. April 2016 um 16:04 Uhr #957935Raffy23Teilnehmer
Du müsstest im TFTP Root eine pxelinux.cfg liegen haben in der du die MAC Adressen der Rechner eintragen kannst, welche dann ein nicht Standardfile boot sollen. (Leider bin ich mir nicht mehr ganz so sicher dabei, es kann auch sein das du diese per MAC – Adresse in einem DHCP Server einstellen musst)Bei dem ISO bau kann ich dir leider nicht weiterhelfen, da findest du sicher im Forum der Distro am schnellsten etwas … Ich bin mir nicht sicher, ob sich das extreme packen der ISO auszahlt, da die Bootzeit bzw auch die Zugriffzeit dann erheblich ansteigen wird, jedoch hab ich sowas noch nicht versucht ^^Du kannst wenn du deinen Blades eine fixe IP-Adresse vergiebst den NBD-Server per Filename den parameter %s übergeben … dann wird immer die IP Adresse des zu sich verbindendet Blades als Dateiname genommen. Wenn du es mit echten Partitionen machst musst du diese symlinken auf ein File zb: 192.168.0.1 -> /dev/sda5 oder in dem ordner dann eine Datei als “Partition” erstellen. Zum automatischen Boot: gibt in (fast) jedem Bios/Uefi eine Einstellung was der Rechner nach einem Stromausfall machen soll, sollte genau das richtige für dich sein ;)mfgRaffy
-
27. April 2016 um 11:04 Uhr #957948badgoesTeilnehmer
nochmal eine Frage zum bereit stellen der iso bzw in ausgepackter formwas würdest du empfehlen?1. Als .img von nbd ausliefern lassen2. installation einmal durchführen und das denn als nfs vom server ausliefern lassenWie seit ihr bei den schon gemachten projekten vorgegangen
-
27. April 2016 um 13:04 Uhr #957952Raffy23Teilnehmer
Bei dem Happywetter Blade haben wir eine Installation des Systems auf eine Partition / Image gemacht welches dann per NBD auf die Blades Read Only verteilt wird.
Wir haben uns dort so entschieden, weil wir sowohl die Arbeitspartitionen sowie die Rootpartition und ein paar andere Sachen so am performantesten abwickeln konnten. Außerdem ist es aus meiner Sicht einfacher zu warten ist. (Bei einen Rolling Release, da dort sowieso immer kleine Teile im System geändert werden)Wenn dir jedoch die Bootzeit egal ist, kannst du ruhig ein ISO auf dem nbd Server ausliefern, genau so wie es bei dem EMK gemacht worden ist. Hier kann man das System auch relativ einfach austauschen indem man das Image wechselt …
NFS haben wir da nicht extra für das root filesystem behandelt, jedoch hat sich in unseren Test gezeigt, dass gerade für Projekte die viel auf das Dateisystem zugreifen es sich sehr unperformant verhält.
Zur Vorgehensweise zum Erstellen eines solchen Images kann ich leider nichts genaues mehr sagen da der Schritt nicht wirklich Dokumentiert worden ist ^^. Aber ich denke wir sind da so vor gegangen:
1. Partition / Image anlegen (minimal 2GB, je nach Distro)
2. System Bootstrapen, basis Installation
3. Boinc, SSH und 32Bit Libs installieren
4. Kernel in den Tftp root kopieren
5. Minimale ramdisk mit ein paar Skripten erstellen
6. Ramdisk in den Tftp root kopierenDanach muss man theoretisch nur mehr den Pxe Loader anpassen um den Kernel mit der ramdisk zu booten. Dort wird dann alles gemacht damit die root Partition / Image per nbd gemountet werden kann …
-
30. April 2016 um 7:04 Uhr #957962ulvTeilnehmer
Beim EMK2 habe ich das etwas anders gemacht:nach dem PXE Kram…1) Aptosid startet zuerst in einer initrd2) Die standard Skripte in der initrd mounten per ndb die .iso und “entpacken” die .iso3) Ein eigenes zusätzliches Skritp von mir in der initrd schmuggelt ein neues init.d-Startskript in das bereits entpackte Aptosid.4) initrd beendet sich und startet das angepasste Aptosid5) Das Aptosid startet mein init.d-Skript, dass dann alle nötigen Pakete nachinstalliert und sich um ssh etc. kümmert.Ich spare mir mal den PXE und Details zum initrd Teil. 8-[Die initrd muss man auspacken, ein Skript einfügen und wieder einpacken.Die distro.iso (510MB) habe ich in eine distro.ext2 (630MB) umgewandelt und danach noch etwas vergrößert damit ich dort zusätzliche Dateien reinlegen kann und Änderungen (auch im Betrieb) einfach per loop-mount möglich sind.Das eigentliche Squashfs-Aptosid-System in der ext2 habe ich nie angefasst, sondern nur Dateien (Skripte, zu installierende Pakete) neben das Squashfs-System gelegt, die dort nur für die initrd lesbar sind.Vorteil ist, dass ich die Distri der Blades theoretisch in einer Minute tauschen könnte. Theoretisch, weil ich die nachinstallierten Pakete z.B. Boinc-Client etc.. aktualisieren müsste. Die Blades können so auch völlig individuell angepasst werden, weil die initrd ja bereits die IP des Blades kennt.Nachteil ist ein deutlich längerer Bootprozess, weil nach dem booten des original Aptosid-Live-Systems jedes mal erst noch alle Pakete für Boinc, Boinc-Projekte und Management installiert werden müssen.HTHulvSkript in der initrd:[CODE]#!/bin/shecho “————- BOINC Startskript in initrd! ———————————“echo “Copy S02superboinc to /etc/rc2.d”cp /root/fll/nbd0/S02superboinc /root/etc/init.d/superboinccd /root/etc/rc2.dln -s ../init.d/superboinc S02superboinccp /root/fll/nbd0/.depend.start /root/etc/init.d/echo “Copy files from Server to Blade”mkdir /root/root/.sshcp /root/fll/nbd0/superboinc-files/authorized_keys /root/root/.ssh/cp -r /root/fll/nbd0/superboinc-files/* /root/root/echo “————- BOINC Startskript END ————————————-“[/CODE]
-
1. Mai 2016 um 0:05 Uhr #957963ulvTeilnehmer
badgoes said:
Da ich mir das mit dem initrd noch nicht so ganz schlüssig klingt geschweige denn wie ich es umsetzte bin ich der Meinung das für mich die Variante des installieren und dann in eine Filesystem Datei kopieren und dieses dann per nbd Verteilen deutlich einfacher klingt.
Nur wenn ich so ein System über Netzwerk verteile wie kann ich am besten jedem Rechner eine Partition bzw einen Speicherbereich zur Verfügung stellen sodass sämtliche Fortschritte des Boinc Client nicht auf den Blade liegen sondern auf dem Server liegen.
Desweiteren wenn ich so eine komplette installation in einem Filecontainer habe was wie müsste dazu die pxelinux.cfg/default aussehenDie Blades vom EMK2 mounten das OS per nbd read-only vom Server. Durch das ro können sich das OS dann alle Blades teilen.
Zusätzlich mountet sich jedes Blade per nbd eine read-write-Partition für Boinc-Daten, die ich anschließend per bind mount (siehe man mount) über das /etc/boinc und das /var/lib/boinc Verzeichnis geklebt habe.Wie raffy das gelöst hat weiß ich leider nicht.
Da Du nur wenige Blades hast würde ich – zumindest für den Anfang – jedem Blade ein eigenes OS mit Boinc-Daten machen. Also so wie raffy23 es beschrieben hat nur eben nicht mit 2GB sondern gleich mit 16GB oder mehr. Dann hast Du für den Start erstmal ein Problem weniger.
Meine pxelinux.cfg/default sieht bei Aptosid so aus:
Das ist aber von Distri zu Distri vermutlich sehr unterschiedlich. Aptosid ist ja Debian. Ubuntu und Mint könnten daher ähnlich sein.
[CODE]root@boinc-manager:/srv/tftp/pxelinux.cfg# cat default
default /boot/vmlinuz0.amd lang=de_DE tz=Europe/Berlin initrd=/boot/initrd0.amd fromhd=/dev/nbd0 root=/dev/nbd0 nbdroot=10.0.0.1,9040 nonetwork boot=fll 2[/CODE] -
22. Januar 2017 um 11:01 Uhr #961923badgoesTeilnehmer
So da ich nun endlich so weit bin das es so einigermaßen läuft wollte ich nochmal ein paar fragen dazu stellenErstmal zu meinem jetzigen stand ich hatte noch ein soweit aufgesetztes system mit ubuntu 14.10 server stehen dieses habe ich dann mit nfs server aufgerüstet und soweit zum laufen gebracht das per nfs share ein debian system auf eine 2. netzwerk karte für das node bereit gestellt wird.desweiteren habe ich den boinc daten ordner auf ein 2. nfs share gelegt sodass die beiden shares unabhängig voneinander arbeiten.zu meinen fragenwenn ich jetzt ein 2. node auf das nfs share des debian system starte kann es da zu problemen kommen wie z.b. kernel panic oder derartiges ?gibt es eine relativ schöne oberfläche die mir temp, cpu last, ram auslastung, usw. auf eine website zaubert ?die boinc oberfläche kann ich per boinctask oder direkt im manager abrufen dieses reicht mir erstmal.und eins noch bei euren Clustern wie habt ihr das gelöst wenn der cluster aus irgendeinem Grund stromlos wird startet das hauptsystem dank bios einstellung wahrscheinlich automatisch wie macht ihr das mit den nodes? per wake on lan oder noch anders weil wenn alle auf einmal booten kann es sein das das hauptsystem noch nicht soweit ist das das nfs system steht und die verteilung der ip´s per dnsmasq.dankeschön schonmal im voraus für weitere denkanstöße von euch
-
22. Januar 2017 um 16:01 Uhr #961925Raffy23Teilnehmer
Hi,
freut mich das dein System schon einigermaßen läuft und nun auch noch zuwachs bekommt. :d:
Ich habe dir deine Fragen wieder aus Sicht des Happywetterblades beantwortet. In einigen Sachen wie die schöne Weboberfläche und das automatische Neustarteten unterscheidet sich beim Happywetterblade und EMK sehr, da diese mit etwas anderen Ansätzen konstruiert worden sind.wenn ich jetzt ein 2. node auf das nfs share des debian system starte kann es da zu problemen kommen wie z.b. kernel panic oder derartiges ?
Bei dem NFS-System bin ich mir da mit der Kernel-Panic nicht so sicher, aber es sollte normalerweise keine auftreten, selbst wenn du schreibend darauf zugreifen solltest. Du solltest aber den schreibenden Zugriff auf das root-Dateisystem von den Nodes vermeiden da es zu dem ein oder anderen Problem führen kann.
Du musst auch darauf achten, dass /var sich von Node zu Node unterscheidet, da dort ein paar Daten abgelegt werden die sonst immer wieder von verschiedenen Nodes überschrieben werden wie zum Beispiel Logdatein etc …gibt es eine relativ schöne oberfläche die mir temp, cpu last, ram auslastung, usw. auf eine website zaubert ?
Du kannst mithilfe von collected Daten über das System sammeln, leider hat die keine schöne Oberfläche und du musst dazu noch ein paar andere Tools installieren.
Auf dem Happyetterblade kommt als Oberfläche collected-web zum Einsatz. Jedoch wird es fast nicht genutzt da es Skripte gibt die uns alarmieren wenn etwas nicht im grünen Bereich ist.
Beim Happywetterblade kommt außerdem eine selbst gebastelte Weboberfläche zum Einsatz mit welcher man eine schöne Übersicht über die BOINC-Clients hat.und eins noch bei euren Clustern wie habt ihr das gelöst wenn der cluster aus irgendeinem Grund stromlos wird startet das hauptsystem dank bios einstellung wahrscheinlich automatisch wie macht ihr das mit den nodes?
Bei dem Happywetterblade haben wir weder Wake-on-LAN noch im BIOS / UEFI “Reboot on Powerloss” eingeschaltet. Jedoch mit dem Hintergrundgedanken, dass ein hochfahren nach einem Verlust der Stromversorgung unter anderem nicht ohne manuelle Reparatur geht. (Wenn ich es richtig in Erinnerung habe, haben wir jedoch noch nie Probleme gehabt beim Systemstart). Trotzdem kann ich dir nur empfehlen es ähnlich zu machen oder nur den Server nach dem Stromausfall starten zu lassen und sobald dieser sicher hochgefahren ist mittels Wake-on-LAN packet die anderen Nodes aufzuwecken und hochfahren lassen. Nur mit einem Boot-Timeout zu arbeiten halte ich in so einer Situation nicht für optimal …
-
22. Januar 2017 um 18:01 Uhr #961926faxTeilnehmer
badgoes;533638 said:
wenn ich jetzt ein 2. node auf das nfs share des debian system starte kann es da zu problemen kommen wie z.b. kernel panic oder derartiges ?Nein, du kannst beliebig viele NFS Clients ranhängen (solange Netzwerk und Festplatte genug Bandbreite haben natürlich). Nur zwei Prozesse, die die gleiche Datei gleichzeitig schreiben oder schreiben und lesen geht natürlich nicht gut, aber das ist bei einem einzelnen Rechner auch nicht anders.
-
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.