Outils personnels

OpenFiler : Installation et première configuration : Différence entre versions

De wikiGite

(v2.99 - Installation)
 
(27 révisions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
= Installation =
+
= v2.99 - Installation =
Pas la peine de réinventer la route, [http://greg.porter.name/wiki/HowTo:Openfiler Greg Porter a déjà fait un tuto très bien]. Rien à ajouter.
+
== Le fil à couper l'eau chaude ==
 +
Pas la peine de réinventer le fil à couper l'eau chaude, [http://greg.porter.name/wiki/HowTo:Openfiler Greg Porter a déjà fait un tuto très bien]. Rien à ajouter.<br />
 +
Sauf peut-être un autre tuto de 2011 : http://www.maykinmedia.nl/blog/2009/apr/11/installing-openfiler-part-one/ et http://www.maykinmedia.nl/blog/2009/apr/28/installing-openfiler-part-two/, qui parle aussi de configuration et d'utilisation.
  
= LDAP =
+
== Quelques outils ==
J'ajouterai pour la configuration de LDAP :
+
  conary update tcpdump
  
For user who want to set up Locate the local LDAP, go to Accounts / Authentication
+
== Dell OpenManage ==
* Check Use LDAP
+
Là c'est plus costaud. Dell ne fournit pas de package pour conary, le gestionnaire de paquet rPath de Openfiler. Par ailleurs, le GUI web d'OpenManage ne fonctionne pas. On ne peut qu'utiliser la ligne de commande (omreport et omconfig).
* Check use Local LDAP
 
Server: 127.0.0.1
 
Base DN: dc=example,dc=com
 
Root bind DN: cn=Manager,dc=example,dc=com
 
Root bind password: "root password of openfiler"
 
  
* check Allow user to change password
+
''Note : IPMI est déjà installé sur Openfiler 2.99. Il faut cependant charger manuellement les drivers :''
 +
modprobe ipmi_poweroff
 +
modprobe ipmi_devintf
 +
modprobe ipmi_msghandler
 +
modprobe ipmi_si
 +
''avant de pouvoir utiliser "ipmitool".
  
Click Submit changes
+
Ces drivers seront ajoutés automatiquement au démarrage d'OpenManage. Si on ne veut pas installer OpenManage et n'utiliser que ipmitool, ajouter ces lignes à /etc/rc.local pour qu'elles soient rechargées au prochain reboot.
  
To check to see if LDAP is correctly configured click on account administration.
+
Installation d'OpenManage :
 +
conary update --keep-existing libstdc++:lib=conary.rpath.com@rpl:1-compat[is:x86]
 +
conary update --keep-existing libxslt:lib=[is:x86]
 +
conary update rpm
  
If the error has been removed then you now should be able to add users and groups if not you may want to check to see if the LDAP service is started under the services tab
+
Charger les RPMs fournis par Dell (vérifier la dernière version sur ftp.us.dell.com)
 +
wget ftp://ftp.us.dell.com/sysman/OM-SrvAdmin-Dell-Web-LX-6.4.0-1266.RHEL5.x86_64_A00.21.tar.gz
 +
mkdir Dell_srv_admin
 +
cd Dell_srv_admin
 +
tar -xvzf ../OM-SrvAdmin-Dell-Web-LX-6.4.0-1266.RHEL5.x86_64_A00.21.tar.gz
 +
cd linux/RPMS/supportRPMS/srvadmin/RHEL5/x86_64
 +
Installer dans l'ordre :
 +
rpm -Uhv libsmbios-2.2.26-3.1.el5.x86_64.rpm  --nodeps
 +
rpm -Uhv smbios-utils-bin-2.2.26-3.1.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-xmlsup-6.4.0-1.231.1.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-omilcore-6.4.0-1.537.1.el5.noarch.rpm  --nodeps
 +
rpm -Uhv srvadmin-deng-6.4.0-1.59.1.el5.x86_64.rpm  --nodeps
 +
rpm -Uhv srvadmin-hapi-6.4.0-1.52.1.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-cm-6.4.0-1266.i386.rpm --nodeps
 +
rpm -Uvh srvadmin-omacore-6.4.0-1.195.2.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-isvc-6.4.0-1.98.1.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-omcommon-6.4.0-1.233.1.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-smcommon-6.4.0-1.312.6.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-racdrsc-6.4.0-1.249.2.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-racadm5-6.4.0-1.217.1.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-storage-6.4.0-1.312.6.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-sysfsutils-6.4.0-1.3.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-storelib-sysfs-6.4.0-1.4.2.el5.x86_64.rpm --nodeps
 +
rpm -Uhv srvadmin-storelib-6.4.0-1.413.1.el5.x86_64.rpm --nodeps
  
You must think about how you want your users and groups to be setup you can only assign users to groups and only assign groups permissions to shares. Basically set up a group for every user then crate that user and assign them to that group. Easy enough.
+
Se reconnecter à la fin de l'installation pour prendre en compte les nouveaux chemins.
 +
 
 +
Lancer les service
 +
srvadmin-services.sh start
 +
Sur un Dell PE1800, un "Segmentation Fault" apparait à la fin du lancement, mais n'empêche pas le fonctionnement. Rappelons qu'on est quand même ici au bord de la bidouille.
 +
 
 +
Quelques lignes de commande OpenManage
 +
omreport system summary
 +
omreport storage vdisk
 +
omreport chassis info
 +
omreport chassis remoteaccess
 +
 
 +
omconfig chassis remoteaccess config=nic ipsource=static ipaddress=192.168.1.189 subnet=255.255.255.0 gateway=192.168.1.254
 +
omconfig storage vdisk action=blink controller=1 vdisk=0
 +
 
 +
== Monit ==
 +
Voir [http://wiki.kogite.fr/index.php/Monit_installation cette procédure]
 +
 
 +
= Configuration =
 +
== LDAP ==
 +
''go to Accounts / Authentication''
 +
* ''Check Use LDAP''
 +
* ''Check use Local LDAP''
 +
''Server: 127.0.0.1''
 +
''Base DN: dc=example,dc=com''
 +
''Root bind DN: cn=Manager,dc=example,dc=com''
 +
''Root bind password: "root password of openfiler"''
 +
* ''Check Allow user to change password''
 +
* ''Click Submit changes''
 +
 
 +
Pour vérifier  si LDAP est correctement configuré, cliquer sur "account administration".
 +
 
 +
Si l'erreur n'apparait plus, on peut maintenant créer des groupes et des utilisateurs (dans chacun des onglets de cette page). On peut aussi vérifier que le service est lancé dans l'onglet "Services"
 +
 
 +
== SMB/CIFS ==
 +
Créer un partage dans l'onglet Shares. Un volume de type filesystem (ext3, ext4, ...) doit avoir été créé dans l'onglet Volumes auparavant.
 +
 
 +
Pour que les partages Samba soit visibles, il faut que l'adresse IP ou le masque réseau du poste client soit autorisé. Dans l'onglet System, ajouter en bas de page des réseaux (avec leur masque) ou des hosts seuls (masque 255.255.255.255).
 +
 
 +
Dans l'onglet Shares maintenant, autoriser ce réseau ou ce poste dans la colonne SMB/CIFS en RO ou RW.
 +
 
 +
Si l'option "Controlled access" est cochée, il faut également avoir créé des utilisateurs, les avoirs mis dans des groupes, et avoir autorisé ce groupe en RO ou RW dans "Group access configuration".
 +
 
 +
= Maintenance =
 +
== Snapshots ==
 +
Bug de la 2.99 ? La création de snapshots par le GUI ne fonctionne pas. En fait, le driver dm-snapshot n'est pas chargé au démarrage.
 +
 
 +
Charger le driver :
 +
modprobe dm-snapshot
 +
Et ajouter cette ligne dans /etc/rc.local pour le prochain reboot.
 +
 
 +
== Supprimer un snapshot manuellement ==
 +
umount /dev/mapper/volgroup00-of.snapshot.logvol00.logvol00.snap1
 +
lvremove /dev/mapper/volgroup00-of.snapshot.logvol00.logvol00.snap1
 +
Editer /etc/fstab et /opt/openfiler/etc/snapshots.xml, enlever les références au snapshot.
 +
 
 +
== Reconstruire la liste des volumes ==
 +
Après un crash ou un changement du serveur Openfiler, celui-ci retrouve seul le Volum Group créé sur l'espace de stockage, mais ne sait pas reconstruire sa liste des Logical Volum qui sont dedans. Pour ça il faut recréer le fichier /opt/openfiler/etc/volumes.xml, et en profiter pour mettre à jour /etc/fstab pour monter les volumes non-iscsi. Le script suivant, issu de http://forums.openfiler.com, aide beaucoup :
 +
#!/bin/bash
 +
VOL_ID=$(which vol_id 2> /dev/null)
 +
if [ "$VOL_ID" == "" ]
 +
then
 +
    VOL_ID=$(which vol_id.libata-migrate)
 +
fi
 +
if [ "$VOL_ID" == "" ]
 +
then
 +
    echo "vol_id utility not found. Exiting."
 +
    exit 1
 +
fi
 +
 +
# strip the /mnt lines from fstab as we will be rebuilding them
 +
grep /mnt /etc/fstab -v > _fstab
 +
 +
# create the new volumes.xml file
 +
echo -e "<?xml version=\"1.0\" ?>\n<volumes>" > _volumes.xml
 +
 +
# find all logical volumes and loop
 +
for i in $(lvdisplay | grep "LV Name" | sed 's/[^\/]*//'); do
 +
    fstype=$($VOL_ID $i -t 2> /dev/null);
 +
    mntpoint=$(echo $i | sed 's/\/dev\//\/mnt\//')/
 +
    vgname=$(echo $i | cut -d '/' -f3)
 +
    volid=$(echo $i | cut -d '/' -f4)
 +
 +
    args="";
 +
    if [ "$fstype" == "" ]; then
 +
        # assume iscsi since filesystem is unknown
 +
        fstype="iscsi"
 +
        mntpoint=""
 +
    fi
 +
    if [ $fstype == ext3 -o $fstype == ext4 ] ; then
 +
        args=",acl,user_xattr"
 +
    fi
 +
 +
    if [ $fstype == reiserfs ] ; then
 +
        args=",acl"
 +
    fi
 +
 +
    if [ $fstype == xfs ] ; then
 +
        args=""
 +
    fi
 +
 +
    if [ $fstype != "iscsi" ]; then
 +
        echo "$i $mntpoint $fstype defaults,usrquota,grpquota$args 0 0" >> _fstab
 +
        echo "    <volume id=\"$volid\" name=\"$volid\" mountpoint=\"$mntpoint\" vg=\"$vgname\" fstype=\"$fstype\" />" >> _volumes.xml
 +
 +
        echo "Mounting $mntpoint"
 +
        mkdir -p $mntpoint > /dev/null 2> /dev/null
 +
        umount $mntpoint 2> /dev/null
 +
        mount -o defaults,usrquota,grpquota$args $i $mntpoint
 +
    else
 +
        echo "$i - assuming iSCSI"
 +
        echo "    <volume id=\"$volid\" name=\"$volid\" mountpoint=\"\" vg=\"$vgname\" fstype=\"$fstype\" incominguser=\"\" incomingpassword=\"\" outgoinguser=\"\" outgoingpassword=\"\" />" >> _volumes.xml
 +
    fi
 +
done;
 +
echo "</volumes>" >> _volumes.xml
 +
 +
mv -f /etc/fstab /etc/fstab.old
 +
mv -f _fstab /etc/fstab
 +
mv -f /opt/openfiler/etc/volumes.xml /opt/openfiler/etc/volumes.xml.old
 +
mv -f _volumes.xml /opt/openfiler/etc/volumes.xml
 +
chown openfiler.openfiler /opt/openfiler/etc/volumes.xml

Version actuelle datée du 13 octobre 2011 à 14:46

v2.99 - Installation

Le fil à couper l'eau chaude

Pas la peine de réinventer le fil à couper l'eau chaude, Greg Porter a déjà fait un tuto très bien. Rien à ajouter.
Sauf peut-être un autre tuto de 2011 : http://www.maykinmedia.nl/blog/2009/apr/11/installing-openfiler-part-one/ et http://www.maykinmedia.nl/blog/2009/apr/28/installing-openfiler-part-two/, qui parle aussi de configuration et d'utilisation.

Quelques outils

 conary update tcpdump

Dell OpenManage

Là c'est plus costaud. Dell ne fournit pas de package pour conary, le gestionnaire de paquet rPath de Openfiler. Par ailleurs, le GUI web d'OpenManage ne fonctionne pas. On ne peut qu'utiliser la ligne de commande (omreport et omconfig).

Note : IPMI est déjà installé sur Openfiler 2.99. Il faut cependant charger manuellement les drivers :

modprobe ipmi_poweroff
modprobe ipmi_devintf
modprobe ipmi_msghandler
modprobe ipmi_si

avant de pouvoir utiliser "ipmitool".

Ces drivers seront ajoutés automatiquement au démarrage d'OpenManage. Si on ne veut pas installer OpenManage et n'utiliser que ipmitool, ajouter ces lignes à /etc/rc.local pour qu'elles soient rechargées au prochain reboot.

Installation d'OpenManage :

conary update --keep-existing libstdc++:lib=conary.rpath.com@rpl:1-compat[is:x86]
conary update --keep-existing libxslt:lib=[is:x86]
conary update rpm

Charger les RPMs fournis par Dell (vérifier la dernière version sur ftp.us.dell.com)

wget ftp://ftp.us.dell.com/sysman/OM-SrvAdmin-Dell-Web-LX-6.4.0-1266.RHEL5.x86_64_A00.21.tar.gz
mkdir Dell_srv_admin
cd Dell_srv_admin
tar -xvzf ../OM-SrvAdmin-Dell-Web-LX-6.4.0-1266.RHEL5.x86_64_A00.21.tar.gz
cd linux/RPMS/supportRPMS/srvadmin/RHEL5/x86_64

Installer dans l'ordre :

rpm -Uhv libsmbios-2.2.26-3.1.el5.x86_64.rpm  --nodeps
rpm -Uhv smbios-utils-bin-2.2.26-3.1.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-xmlsup-6.4.0-1.231.1.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-omilcore-6.4.0-1.537.1.el5.noarch.rpm  --nodeps
rpm -Uhv srvadmin-deng-6.4.0-1.59.1.el5.x86_64.rpm  --nodeps
rpm -Uhv srvadmin-hapi-6.4.0-1.52.1.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-cm-6.4.0-1266.i386.rpm --nodeps
rpm -Uvh srvadmin-omacore-6.4.0-1.195.2.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-isvc-6.4.0-1.98.1.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-omcommon-6.4.0-1.233.1.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-smcommon-6.4.0-1.312.6.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-racdrsc-6.4.0-1.249.2.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-racadm5-6.4.0-1.217.1.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-storage-6.4.0-1.312.6.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-sysfsutils-6.4.0-1.3.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-storelib-sysfs-6.4.0-1.4.2.el5.x86_64.rpm --nodeps
rpm -Uhv srvadmin-storelib-6.4.0-1.413.1.el5.x86_64.rpm --nodeps

Se reconnecter à la fin de l'installation pour prendre en compte les nouveaux chemins.

Lancer les service

srvadmin-services.sh start

Sur un Dell PE1800, un "Segmentation Fault" apparait à la fin du lancement, mais n'empêche pas le fonctionnement. Rappelons qu'on est quand même ici au bord de la bidouille.

Quelques lignes de commande OpenManage

omreport system summary
omreport storage vdisk
omreport chassis info
omreport chassis remoteaccess
omconfig chassis remoteaccess config=nic ipsource=static ipaddress=192.168.1.189 subnet=255.255.255.0 gateway=192.168.1.254
omconfig storage vdisk action=blink controller=1 vdisk=0

Monit

Voir cette procédure

Configuration

LDAP

go to Accounts / Authentication

  • Check Use LDAP
  • Check use Local LDAP
Server: 127.0.0.1
Base DN: dc=example,dc=com
Root bind DN: cn=Manager,dc=example,dc=com
Root bind password: "root password of openfiler"
  • Check Allow user to change password
  • Click Submit changes

Pour vérifier si LDAP est correctement configuré, cliquer sur "account administration".

Si l'erreur n'apparait plus, on peut maintenant créer des groupes et des utilisateurs (dans chacun des onglets de cette page). On peut aussi vérifier que le service est lancé dans l'onglet "Services"

SMB/CIFS

Créer un partage dans l'onglet Shares. Un volume de type filesystem (ext3, ext4, ...) doit avoir été créé dans l'onglet Volumes auparavant.

Pour que les partages Samba soit visibles, il faut que l'adresse IP ou le masque réseau du poste client soit autorisé. Dans l'onglet System, ajouter en bas de page des réseaux (avec leur masque) ou des hosts seuls (masque 255.255.255.255).

Dans l'onglet Shares maintenant, autoriser ce réseau ou ce poste dans la colonne SMB/CIFS en RO ou RW.

Si l'option "Controlled access" est cochée, il faut également avoir créé des utilisateurs, les avoirs mis dans des groupes, et avoir autorisé ce groupe en RO ou RW dans "Group access configuration".

Maintenance

Snapshots

Bug de la 2.99 ? La création de snapshots par le GUI ne fonctionne pas. En fait, le driver dm-snapshot n'est pas chargé au démarrage.

Charger le driver :

modprobe dm-snapshot

Et ajouter cette ligne dans /etc/rc.local pour le prochain reboot.

Supprimer un snapshot manuellement

umount /dev/mapper/volgroup00-of.snapshot.logvol00.logvol00.snap1
lvremove /dev/mapper/volgroup00-of.snapshot.logvol00.logvol00.snap1

Editer /etc/fstab et /opt/openfiler/etc/snapshots.xml, enlever les références au snapshot.

Reconstruire la liste des volumes

Après un crash ou un changement du serveur Openfiler, celui-ci retrouve seul le Volum Group créé sur l'espace de stockage, mais ne sait pas reconstruire sa liste des Logical Volum qui sont dedans. Pour ça il faut recréer le fichier /opt/openfiler/etc/volumes.xml, et en profiter pour mettre à jour /etc/fstab pour monter les volumes non-iscsi. Le script suivant, issu de http://forums.openfiler.com, aide beaucoup :

#!/bin/bash
VOL_ID=$(which vol_id 2> /dev/null)
if [ "$VOL_ID" == "" ]
then
   VOL_ID=$(which vol_id.libata-migrate)
fi
if [ "$VOL_ID" == "" ]
then
   echo "vol_id utility not found. Exiting."
   exit 1
fi

# strip the /mnt lines from fstab as we will be rebuilding them
grep /mnt /etc/fstab -v > _fstab

# create the new volumes.xml file
echo -e "<?xml version=\"1.0\" ?>\n<volumes>" > _volumes.xml

# find all logical volumes and loop
for i in $(lvdisplay | grep "LV Name" | sed 's/[^\/]*//'); do
    fstype=$($VOL_ID $i -t 2> /dev/null);
    mntpoint=$(echo $i | sed 's/\/dev\//\/mnt\//')/
    vgname=$(echo $i | cut -d '/' -f3)
    volid=$(echo $i | cut -d '/' -f4)

    args="";
    if [ "$fstype" == "" ]; then
        # assume iscsi since filesystem is unknown
        fstype="iscsi"
        mntpoint=""
    fi
    if [ $fstype == ext3 -o $fstype == ext4 ] ; then
        args=",acl,user_xattr"
    fi

    if [ $fstype == reiserfs ] ; then
        args=",acl"
    fi

    if [ $fstype == xfs ] ; then
        args=""
    fi

    if [ $fstype != "iscsi" ]; then
        echo "$i $mntpoint $fstype defaults,usrquota,grpquota$args 0 0" >> _fstab
        echo "    <volume id=\"$volid\" name=\"$volid\" mountpoint=\"$mntpoint\" vg=\"$vgname\" fstype=\"$fstype\" />" >> _volumes.xml

        echo "Mounting $mntpoint"
        mkdir -p $mntpoint > /dev/null 2> /dev/null
        umount $mntpoint 2> /dev/null
        mount -o defaults,usrquota,grpquota$args $i $mntpoint
    else
        echo "$i - assuming iSCSI"
        echo "    <volume id=\"$volid\" name=\"$volid\" mountpoint=\"\" vg=\"$vgname\" fstype=\"$fstype\" incominguser=\"\" incomingpassword=\"\" outgoinguser=\"\" outgoingpassword=\"\" />" >> _volumes.xml
    fi
done;
echo "</volumes>" >> _volumes.xml

mv -f /etc/fstab /etc/fstab.old
mv -f _fstab /etc/fstab
mv -f /opt/openfiler/etc/volumes.xml /opt/openfiler/etc/volumes.xml.old
mv -f _volumes.xml /opt/openfiler/etc/volumes.xml
chown openfiler.openfiler /opt/openfiler/etc/volumes.xml