OpenFiler : Installation et première configuration : Différence entre versions
De wikiGite
(→LDAP) |
|||
Ligne 66 : | Ligne 66 : | ||
= Configuration = | = Configuration = | ||
== LDAP == | == LDAP == | ||
− | |||
− | |||
''go to Accounts / Authentication'' | ''go to Accounts / Authentication'' | ||
* ''Check Use LDAP'' | * ''Check Use LDAP'' |
Version du 14 septembre 2011 à 14:32
Sommaire
v2.99 - Installation
Le fil à couper l'eau chaude
Pas la peine de réinventer le fil à couper l'eau chaude, Greg Porter a déjà fait un tuto très bien. Rien à ajouter.
Sauf peut-être un autre tuto de 2011 : http://www.maykinmedia.nl/blog/2009/apr/11/installing-openfiler-part-one/ et http://www.maykinmedia.nl/blog/2009/apr/28/installing-openfiler-part-two/, qui parle aussi de configuration et d'utilisation.
Dell OpenManage
Là c'est plus costaud. Dell ne fournit pas de package pour conary, le gestionnaire de paquet rPath de Openfiler. Par ailleurs, le GUI web d'OpenManage ne fonctionne pas. On ne peut qu'utiliser la ligne de commande (omreport et omconfig).
Note : IPMI est déjà installé sur Openfiler 2.99. Il faut cependant charger manuellement les drivers :
modprobe ipmi_poweroff modprobe ipmi_devintf modprobe ipmi_msghandler modprobe ipmi_si
avant de pouvoir utiliser "ipmitool".
Ces drivers seront ajoutés automatiquement au démarrage d'OpenManage. Si on ne veut pas installer OpenManage et n'utiliser que ipmitool, ajouter ces lignes à /etc/rc.local pour qu'elles soient rechargées au prochain reboot.
Installation d'OpenManage :
conary update --keep-existing libstdc++:lib=conary.rpath.com@rpl:1-compat[is:x86] conary update --keep-existing libxslt:lib=[is:x86] conary update rpm
Charger les RPMs fournis par Dell (vérifier la dernière version sur ftp.us.dell.com)
wget ftp://ftp.us.dell.com/sysman/OM-SrvAdmin-Dell-Web-LX-6.4.0-1266.RHEL5.x86_64_A00.21.tar.gz mkdir Dell_srv_admin cd Dell_srv_admin tar -xvzf ../OM-SrvAdmin-Dell-Web-LX-6.4.0-1266.RHEL5.x86_64_A00.21.tar.gz cd linux/RPMS/supportRPMS/srvadmin/RHEL5/x86_64
Installer dans l'ordre :
rpm -Uhv libsmbios-2.2.26-3.1.el5.x86_64.rpm --nodeps rpm -Uhv smbios-utils-bin-2.2.26-3.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-xmlsup-6.4.0-1.231.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-omilcore-6.4.0-1.537.1.el5.noarch.rpm --nodeps rpm -Uhv srvadmin-deng-6.4.0-1.59.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-hapi-6.4.0-1.52.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-cm-6.4.0-1266.i386.rpm --nodeps rpm -Uvh srvadmin-omacore-6.4.0-1.195.2.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-isvc-6.4.0-1.98.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-omcommon-6.4.0-1.233.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-smcommon-6.4.0-1.312.6.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-racdrsc-6.4.0-1.249.2.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-racadm5-6.4.0-1.217.1.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-storage-6.4.0-1.312.6.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-sysfsutils-6.4.0-1.3.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-storelib-sysfs-6.4.0-1.4.2.el5.x86_64.rpm --nodeps rpm -Uhv srvadmin-storelib-6.4.0-1.413.1.el5.x86_64.rpm --nodeps
Se reconnecter à la fin de l'installation pour prendre en compte les nouveaux chemins.
Lancer les service
srvadmin-services.sh start
Sur un Dell PE1800, un "Segmentation Fault" apparait à la fin du lancement, mais n'empêche pas le fonctionnement. Rappelons qu'on est quand même ici au bord de la bidouille.
Quelques lignes de commande OpenManage
omreport system summary omreport storage vdisk omreport chassis info omreport chassis remoteaccess
omconfig chassis remoteaccess config=nic ipsource=static ipaddress=192.168.1.189 subnet=255.255.255.0 gateway=192.168.1.254 omconfig storage vdisk action=blink controller=1 vdisk=0
Monit
Voir cette procédure
Configuration
LDAP
go to Accounts / Authentication
- Check Use LDAP
- Check use Local LDAP
Server: 127.0.0.1 Base DN: dc=example,dc=com Root bind DN: cn=Manager,dc=example,dc=com Root bind password: "root password of openfiler"
- Check Allow user to change password
- Click Submit changes
Pour vérifier si LDAP est correctement configuré, cliquer sur "account administration".
Si l'erreur n'apparait plus, on peut maintenant créer des groupes et des utilisateurs (dans chacun des onglets de cette page). On peut aussi vérifier que le service est lancé dans l'onglet "Services"
SMB/CIFS
Créer un partage dans l'onglet Shares. Un volume de type filesystem (ext3, ext4, ...) doit avoir été créé dans l'onglet Volumes auparavant.
Pour que les partages Samba soit visibles, il faut que l'adresse IP ou le masque réseau du poste client soit autorisé. Dans l'onglet System, ajouter en bas de page des réseaux (avec leur masque) ou des hosts seuls (masque 255.255.255.255).
Dans l'onglet Shares maintenant, autoriser ce réseau ou ce poste dans la colonne SMB/CIFS en RO ou RW.
Si l'option "Controlled access" est cochée, il faut également avoir créé des utilisateurs, les avoirs mis dans des groupes, et avoir autorisé ce groupe en RO ou RW dans "Group access configuration".
Maintenance
Reconstruire la liste des volumes
Après un crash ou un changement du serveur Openfiler, celui-ci retrouve seul le Volum Group créé sur l'espace de stockage, mais ne sait pas reconstruire sa liste des Logical Volum qui sont dedans. Pour ça il faut recréer le fichier /opt/openfiler/etc/volumes.xml, et en profiter pour mettre à jour /etc/fstab pour monter les volumes non-iscsi. Le script issu de http://forums.openfiler.com suivant aide beaucoup :
#!/bin/bash VOL_ID=$(which vol_id 2> /dev/null) if [ "$VOL_ID" == "" ] then VOL_ID=$(which vol_id.libata-migrate) fi if [ "$VOL_ID" == "" ] then echo "vol_id utility not found. Exiting." exit 1 fi # strip the /mnt lines from fstab as we will be rebuilding them grep /mnt /etc/fstab -v > _fstab # create the new volumes.xml file echo -e "<?xml version=\"1.0\" ?>\n<volumes>" > _volumes.xml # find all logical volumes and loop for i in $(lvdisplay | grep "LV Name" | sed 's/[^\/]*//'); do fstype=$($VOL_ID $i -t 2> /dev/null); mntpoint=$(echo $i | sed 's/\/dev\//\/mnt\//')/ vgname=$(echo $i | cut -d '/' -f3) volid=$(echo $i | cut -d '/' -f4) args=""; if [ "$fstype" == "" ]; then # assume iscsi since filesystem is unknown fstype="iscsi" mntpoint="" fi if [ $fstype == ext3 -o $fstype == ext4 ] ; then args=",acl,user_xattr" fi if [ $fstype == reiserfs ] ; then args=",acl" fi if [ $fstype == xfs ] ; then args="" fi if [ $fstype != "iscsi" ]; then echo "$i $mntpoint $fstype defaults,usrquota,grpquota$args 0 0" >> _fstab echo " <volume id=\"$volid\" name=\"$volid\" mountpoint=\"$mntpoint\" vg=\"$vgname\" fstype=\"$fstype\" />" >> _volumes.xml echo "Mounting $mntpoint" mkdir -p $mntpoint > /dev/null 2> /dev/null umount $mntpoint 2> /dev/null mount -o defaults,usrquota,grpquota$args $i $mntpoint else echo "$i - assuming iSCSI" echo " <volume id=\"$volid\" name=\"$volid\" mountpoint=\"\" vg=\"$vgname\" fstype=\"$fstype\" incominguser=\"\" incomingpassword=\"\" outgoinguser=\"\" outgoingpassword=\"\" />" >> _volumes.xml fi done; echo "</volumes>" >> _volumes.xml mv -f /etc/fstab /etc/fstab.old mv -f _fstab /etc/fstab mv -f /opt/openfiler/etc/volumes.xml /opt/openfiler/etc/volumes.xml.old mv -f _volumes.xml /opt/openfiler/etc/volumes.xml chown openfiler.openfiler /opt/openfiler/etc/volumes.xml