https://wiki.niif.hu/api.php?action=feedcontributions&user=Molnarp%28AT%29niif.hu&feedformat=atomKIFÜ Wiki - Szerkesztő közreműködései [hu]2024-03-28T23:47:05ZSzerkesztő közreműködéseiMediaWiki 1.30.0https://wiki.niif.hu/index.php?title=Nextcloud-Android&diff=4907Nextcloud-Android2022-02-01T19:34:24Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>=== Nextcloud Naptár és Névjegyzék beállítása Android-on ===<br />
<br />
=== Alkalmazás jelszó létrehozása (Nextcloud) === <br />
<br />
A használathoz szükségünk van egy alkalmazás jelszó létrehozásához. <br />
<br />
Kattintsunk az alábbi linkre: https://nextcloud.<domain>/settings/user/security<br />
(Jelentkezzünk be a Nextcloud-ba ha előtte ez nem történt meg)<br />
<br />
Görgessünk az oldal aljára<br />
<br />
Az '''Alkalmazás név'''-hez írjuk be, pl. '''''Outlook''''' majd kattintsunk az Új alkalmazás jelszó létrehozása feliratra. <br />
<br />
[[Fájl:Caldav-outlook-5.jpg|bélyegkép|középre]]<br />
<br />
[[Fájl:Caldav-outlook-6.jpg|bélyegkép|középre]]<br />
<br />
Ha ez sikeresen megtörtént a Nextcloud létrehoz egy felhasználónév jelszó párost. Ezt a két adatot kell beírni később a '''Felhasználónév''' és a '''Jelszó'''-hoz.<br />
<br />
[[Fájl:Caldav-outlook-7.jpg|bélyegkép|középre]]<br />
<br />
=== DAVx⁵ alkalmazás telepítése ===<br />
<br />
==== Google Play ====<br />
<br />
Telepítsük a DAVx⁵ alkalmazást a Google Play Áruházból. A Google Play Áruházból az alkalmazás fizetős.<br />
<br />
[[Fájl:Davx.jpg|bélyegkép|középre]]<br />
<br />
==== F-Droid ====<br />
<br />
Az F-Droid-ból telepítjük a DAVx⁵ alkalmazást.<br />
<br />
Közvetlen link: https://f-droid.org/en/packages/at.bitfire.davdroid/<br />
<br />
Jelen leírás készítésekor ez volt az akutális verzió: https://f-droid.org/repo/at.bitfire.davdroid_303100003.apk<br />
{|<br />
|-<br />
| [[Fájl:Davx-1.jpg|bélyegkép]]<br />
| [[Fájl:Davx-2.jpg|bélyegkép]]<br />
| [[Fájl:Davx-3.jpg|bélyegkép]]<br />
|}<br />
Töltsük le az alkalmazást. (Ha a rendszerünk engedélyt kér a telepítéshez adjuk meg a jogosultságot).<br />
<br />
[[Fájl:Davx-4.jpg|bélyegkép|középre]]<br />
<br />
<br />
'''"Az ilyen típusú fájlok kár okozhatnak eszközőben"''' üzenet esetén nyomjunk rá az '''OK'''-ra. Az alkalmazás nem okoz problémát, megbízható forrásból származik a telepíteni kívánt DAVx⁵.<br />
<br />
Letöltés után telepítsük az alkalmazást.<br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-5.jpg|bélyegkép]]<br />
| [[Fájl:Davx-6.jpg|bélyegkép]]<br />
|}<br />
<br />
=== DAVx⁵ beállítása ===<br />
<br />
Indítsuk el a DAVx⁵ alkalmazást. <br />
Az '''Engedélyek''' opciónál ''' Az összes aláb felsoroltnál ''' húzzuk el a csúszkát jobbra<br />
[[Fájl:Davx-18.jpg|bélyegkép|középre]]<br />
<br />
Ha az indulás során az alkalmazást hozzáférést kér a naptárhoz illetve a címjegyzékhez akkor azt engedélyezzük számára. <br />
Ha ez megtörént nyomjunk rá a ''' ->''' jelre.<br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-17.jpg|bélyegkép]]<br />
| [[Fájl:Davx-8.jpg|bélyegkép]]<br />
|}<br />
<br />
A következő lehetőségnél beállíthatjuk a folyamatos szinkronizálást. Ekkor az alkalmazás háttérben fut. Ha nem engedélyezzük akkor az Andorid akkumulátoroptimalizálás beállítása miatt leállíthatja az alkalmazást, így nem lesz folymatos szinkronizálás a naptár és névjegyzék esetében.<br />
<br />
Ha ez megtörént nyomjunk rá a ''' ->''' jelre<br />
<br />
<br />
[[Fájl:Davx-16.jpg|bélyegkép|középre]]<br />
<br />
Az utolsó oldalon egy rövid információ olvasható az alkalmazásról.<br />
<br />
[[Fájl:Davx-19.jpg|bélyegkép|középre]]<br />
<br />
Befejezéshez nyomjunk a '''✓''' jelre. <br />
<br />
Beállításhoz menjünk a '''+'''-ra<br />
<br />
[[Fájl:Davx-9.jpg|bélyegkép|középre]]<br />
<br />
Fiók hozzáadásánál válasszuk a '''Bejelentkezés URL és felhasználónév segítségével''' opciót.<br />
<br />
[[Fájl:Davx-10.jpg|bélyegkép|középre]]<br />
'''URL-törzshöz''' írjuk be az alábbi címet: https://nextcloud.<domain>/remote.php/dav/.<br />
Felhasználónév és Jelszó esetén adjuk meg az '''Alkalmazás jelszó létrehozás során''' elkészült adatokat.<br />
<br />
[[Fájl:Davx-11.jpg|bélyegkép|középre]]<br />
<br />
Ha ezzel megvagyunk nyomjunk a '''Bejelentkezés''' szövegre.<br />
<br />
Ha sikeresen volt a bejelentkezés akkor megjelnik a '''Fiók létrehozása''' lehetőség. <br />
Ha a rendszer által felkínált fiók név megfelelő akkor nyomjunk a '''Fiók létrehozása''' szövegre. <br />
Amennyiben szeretnénk másnevet használni akkor a fióknév tetszés szerint átírható. <br />
<br />
[[Fájl:Davx-20.jpg|bélyegkép|középre]]<br />
<br />
A rendszer betölti a Nextcloud-ban elérhető névjegyzéket és naptárt. <br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-21.jpg|bélyegkép]]<br />
| [[Fájl:Davx-22.jpg|bélyegkép]]<br />
|}<br />
<br />
<br />
A névre kattinva választhatjuk ki, hogy melyiket szeretnénk szinkronizálni. <br />
<br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-14.jpg|bélyegkép]]<br />
| [[Fájl:Davx-13.jpg|bélyegkép]]<br />
|}<br />
<br />
Azonnali szinkronizáláshoz nyomjunk a '''⇆''' jelre. <br />
<br />
<br />
[[Fájl:Davx-15.jpg|bélyegkép|középre]]<br />
<br />
A beállítással elkészültünk. A Nextcloud-os naptár és névjegyzék elérhetővé vált a telefonon is. <br />
A Google Naptár alkalmazásba bekerültek az események a Nextcloud-ból.<br />
A névjegyek a szinkronizálást követően bekerülnek a Telefonkönyvbe.<br />
<br />
=== Nextcloud beállítása === <br />
<br />
Telepítsük a Google Play-ből a Nextcloud alkalmazást. <br />
<br />
[[Fájl:Davx-23.jpg|bélyegkép|középre]]<br />
<br />
Indítsuk el a Nextcloud alkalmazást majd nyomjunk a '''Bejelentkezés''' szövegre.<br />
<br />
A '''Kiszolgáló cím https://...''' mezőben adjuk meg a következő címet: https://nextcloud.<domain>/ majd nyomjunk a '''->''' jelre.<br />
[[Fájl:Davx-25.jpg|bélyegkép|középre]]<br />
<br />
Nyomjunk a '''Bejelentkezés''' szövegre.<br />
<br />
[[Fájl:Davx-26.jpg|bélyegkép|középre]]<br />
<br />
A Web-es felületen használt bejelentkezési metódust használjuk.<br />
<br />
[[Fájl:Davx-27.jpg|bélyegkép|középre]]<br />
<br />
=<br />
Adjuk meg a hozzáférést a '''Hozzáférés megadása''' szövegre nyomva. <br />
<br />
[[Fájl:Davx-28.jpg|bélyegkép|középre]]<br />
<br />
Ha az alkalmazás engedélyt kér adjuk meg az engedélyt.<br />
<br />
[[Fájl:Davx-29.jpg|bélyegkép|középre]]<br />
<br />
A Nextcloud alkalmazás használtra kész.<br />
<br />
<br />
==== Naptár és névjegyzék beállítása DAVx⁵ segítségével =====<br />
<br />
A Nextcloud alkalmazásban nyomjunk a menü gombra, majd a megnyílt oldalsávon nyomjunk rá a '''Beállítások''' szövegre.<br />
{|<br />
|-<br />
| [[Fájl:Davx-30.jpg|bélyegkép]]<br />
| [[Fájl:Davx-31.jpg|bélyegkép]]<br />
|}<br />
<br />
Válasszuk ki a '''Naptár és névjegyzék szinkronizálása''' opciót.<br />
[[Fájl:Davx-32.jpg|bélyegkép|középre]]<br />
<br />
A felugró ablakban válasszuk ki az általunk használatos böngészőt és nyomjuk a '''Csak egyszer''' szövegre.<br />
[[Fájl:Davx-33.jpg|bélyegkép|középre]]<br />
<br />
A '''Kapcsolódás a fiókjához''' lehetőségnél nyomjunk a '''Bejelentkezés''' szövegre.<br />
[[Fájl:Davx-34.jpg|bélyegkép|középre]]<br />
<br />
A kötvekező oldalon nyomjunk a '''Hozzáférés megadása''' szövegre.<br />
<br />
[[Fájl:Davx-35.jpg|bélyegkép|középre]]<br />
<br />
Ha sikeres volt akkor a '''Fiók csatlakoztatva''' üzenet fogad. Bezárhatjuk az ablakot. <br />
[[Fájl:Davx-36.jpg|bélyegkép|középre]]<br />
<br />
Ha sikeresen volt a bejelentkezés akkor megjelnik a '''Fiók létrehozása''' lehetőség. <br />
Ha a rendszer által felkínált fiók név megfelelő akkor nyomjunk a '''Fiók létrehozása''' szövegre. Amennyiben szeretnénk másnevet használni akkor a fióknév tetszés szerint átírható. <br />
<br />
[[Fájl:Davx-20.jpg|bélyegkép|középre]]<br />
<br />
A rendszer betölti a Nextcloud-ban elérhető névjegyzéket és naptárakat. <br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-21.jpg|bélyegkép]]<br />
| [[Fájl:Davx-22.jpg|bélyegkép]]<br />
|}<br />
<br />
<br />
A névre kattinva választhatjuk ki, hogy melyiket szeretnénk szinkronizálni. <br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-14.jpg|bélyegkép]]<br />
| [[Fájl:Davx-13.jpg|bélyegkép]]<br />
|}<br />
<br />
Azonnali szinkronizáláshoz nyomjunk a '''⇆''' jelre. <br />
<br />
<br />
[[Fájl:Davx-15.jpg|bélyegkép|középre]]<br />
<br />
A beállítással elkészültünk. A Nextcloud-os naptár és névjegyzék elérhetővé vált a telefonon is. <br />
A Google Naptár alkalmazásba bekerültek az események a Nextcloud-ból.<br />
A névjegyek a szinkronizálást követően bekerülnek a Telefonkönyvbe.<br />
<br />
Ha korábban nem állítottuk be a DAVx⁵ alkalmazást akkor felhívja figyelmünket arra, hogy az alkalmazás számára hiányzik az engedély.<br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-37.jpg|bélyegkép]]<br />
| [[Fájl:Davx-38.jpg|bélyegkép]]<br />
|} <br />
<br />
Nyomjunk az '''Engedélyek''' gombra.<br />
<br />
Az '''Engedélyek''' opciónál a ''' Az összes aláb felsoroltnál ''' húzzuk el a csúszkát jobbra<br />
[[Fájl:Davx-18.jpg|bélyegkép|középre]]<br />
<br />
Ha az indulás során az alkalmazást hozzáférést kér a naptárhoz illetve a címjegyzékhet akkor azt engedélyezzük számára. Ha ez megtörént nyomjunk rá a ''' ->''' jelre.<br />
{|<br />
|-<br />
| [[Fájl:Davx-17.jpg|bélyegkép]]<br />
| [[Fájl:Davx-8.jpg|bélyegkép]]<br />
|} <br />
<br />
Az engedély megadása után lehetőségünk van kiválasztani, hogy mit szeretnénk szinkronizálni.<br />
<br />
{|<br />
|-<br />
| [[Fájl:Davx-14.jpg|bélyegkép]]<br />
| [[Fájl:Davx-13.jpg|bélyegkép]]<br />
|}<br />
<br />
Azonnali szinkronizáláshoz nyomjunk a '''⇆''' jelre. <br />
<br />
<br />
[[Fájl:Davx-15.jpg|bélyegkép|középre]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Nextcloud-Outlook&diff=4906Nextcloud-Outlook2022-02-01T19:33:43Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>==Nextcloud Naptár és Névjegyzék beállítása Outlook-ban==<br />
<br />
=== Outlook CalDav Synchronizer letöltése és kibontása ===<br />
<br />
Ahhoz, hogy a Nextcloud-ban használt naptárhoz illetve névjegyekhez hozzáférhessünk az Outlook alkalmazásban szükségünk van egy kiegészítő telepítésére.<br />
<br />
Az alkalmazás neve: '''Outlook CalDav Synchronizer'''<br />
<br />
Az alábbi oldalról tudjuk letölteni: <br />
<br />
https://caldavsynchronizer.org/ vagy a https://caldavsynchronizer.org/download-2/<br />
<br />
A letöltés során egy ''.zip'' kiterjesztésű állomány kerül mentésre. <br />
<br />
Jelen dokumentáció írásakor: '''OutlookCalDavSynchronizer-4.0.0.zip'''<br />
<br />
[[Fájl:Caldav-outlook-1.jpg|bélyegkép|középre]]<br />
<br />
Csomagoljuk ki, majd kattintsunk a '''setup.exe''' elnevezésű fájlra. <br />
<br />
Kibontás -> Az összes kibontása -> Kibontás (A „Kibontott fájlok megjelenítése a befejezés után”)<br />
<br />
[[Fájl:Caldav-outlook-2.jpg|bélyegkép|középre]]<br />
<br />
[[Fájl:Caldav-outlook-3.jpg|bélyegkép|középre]]<br />
<br />
[[Fájl:Caldav-outlook-4.jpg|bélyegkép|középre]]<br />
<br />
<br />
=== Alkalmazás jelszó létrehozása (Nextcloud) === <br />
<br />
A használathoz szükségünk van egy alkalmazás jelszó létrehozásához. <br />
<br />
Kattintsunk az alábbi linkre: https://nextcloud.<domain>/settings/user/security<br />
(Jelentkezzünk be a Nextcloud-ba ha előtte ez nem történt meg)<br />
<br />
Görgessünk az oldal aljára<br />
<br />
Az „Alkalmazás név”-hez írjuk be, pl. '''''Outlook''''' majd kattintsunk az Új alkalmazás jelszó létrehozása feliratra. <br />
<br />
[[Fájl:Caldav-outlook-5.jpg|bélyegkép|középre]]<br />
<br />
[[Fájl:Caldav-outlook-6.jpg|bélyegkép|középre]]<br />
<br />
Ha ez sikeresen megtörtént a Nextcloud létrehoz egy felhasználónév jelszó párost. Ezt a két adatot kell beírni később a '''Username''' és a '''Password'''-hoz.<br />
<br />
[[Fájl:Caldav-outlook-7.jpg|bélyegkép|középre]]<br />
<br />
=== Outlook CalDav Synchronizer használata az Outlook-ban ===<br />
<br />
Az alkalmazás használatához kattintsunk a '''CalDav Syncronizer''' fülre. <br />
<br />
[[Fájl:Caldav-outlook-8.jpg|bélyegkép|középre]]<br />
<br />
Itt menjünk a '''Synchronization Profiles''' opcióra<br />
<br />
[[Fájl:Caldav-outlook-9.jpg|bélyegkép|középre]]<br />
<br />
Adjunk hozzá új profilt a zöld +-ra kattinva (Add new profile)<br />
<br />
[[Fájl:Caldav-outlook-10.jpg|bélyegkép|középre]]<br />
<br />
A felugró ablakban válasszuk a NextCloud lehetőséget majd kattintsunk az '''OK'''-ra. <br />
<br />
[[Fájl:Caldav-outlook-11.jpg|bélyegkép|középre]]<br />
<br />
<br />
==== Profil kitöltése ====<br />
<br />
[[Fájl:Caldav-outlook-12.png|bélyegkép|középre]]<br />
<br />
Először adjunk meg egy profil nevet pl. Nextcloud – Naptár és válasszuk ki az '''Outlook''' mappát amelyet szinkronizálni szeretnénk a Nextcloud naptárával. <br />
Kiválaszthatunk egy meglévő Outlook-naptárt, vagy létrehozhatunk egy új mappát az Outlook beállítások '''…''' -ra kattintva.<br />
<br />
[[Fájl:Caldav-outlook-13.jpg|bélyegkép|középre]]<br />
[[Fájl:Caldav-outlook-14.jpg|bélyegkép|középre]]<br />
<br />
Ha nincs Naptár mappánk akkor kattintsunk az '''Új mappa…''' gombra. <br />
<br />
Adjuk meg a mappa név pl. Naptár – NExtcloud majd a '''Tárolt elemtípus'''nál válasszuk ki a '''Naptárt'''. Majd kattintsunk az '''OK'''-ra. <br />
<br />
[[Fájl:Caldav-outlook-15.jpg|bélyegkép|középre]]<br />
<br />
Most konfigurálni kell a szerver beállításait. A DAV URL előre kitöltve van az alapértelmezett Nextcloud DAV elérési útvonallal, ezt kell megváltoztatni, adjuk meg a felhasználónevet és a jelszót, és nyomjuk meg a '''Test vagy discover settings''' gombot az összes szerver erőforrás automatikus felderítésének elindításához.<br />
<br />
Mi az alábbi DAV URL címet használjuk: https://nextcloud.<domain>/remote.php/dav/ <br />
<br />
<br />
[[Fájl:Caldav-outlook-16.jpg|bélyegkép|középre]]<br />
<br />
A '''Test vagy discover settings'''-ra kattintva kiválaszhatjuk az elérhető naptárat/naptárakat. <br />
<br />
[[Fájl:Caldav-outlook-17.jpg|bélyegkép|középre]]<br />
<br />
Ha ezzel megvagyunk kattintsunk az '''OK'''-ra. <br />
Ezután az alábbi kisablak jelenik meg. Kattintsunk az '''OK'''-ra.<br />
<br />
<br />
[[Fájl:Caldav-outlook-18.jpg|bélyegkép|középre]]<br />
<br />
Majd ezután az '''Options'''-nál lévő '''OK'''-ra kattintsunk. <br />
<br />
<br />
''Opcionális: Beállíthatjuk, hogy az alkalmazás azonnal szinkronizáljon a változtatás után. Ehhez be kell pipálni a „Synchronize items immediateley after change” lehetőséget.'' <br />
<br />
<br />
''A találkozó meghívók nem tartoznak ehhez kerülve a duplikációt!''<br />
<br />
<br />
[[Fájl:Caldav-outlook-19.jpg|bélyegkép|középre]]<br />
<br />
<br />
<br />
=== Névjegyzék beállítása ===<br />
<br />
A névjegyzék esetében a profil beállítása hasonló mint a naptár esetén, csak válasszunk egy Outlook névjegyzék mappát a szinkronizáláshoz vagy ahogyan a naptár esetén itt is készíthetünk egy új mappát.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Nextcloud-Thunderbird&diff=4905Nextcloud-Thunderbird2022-02-01T19:31:43Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>==Nextcloud Naptár és Névjegyzék beállítása Mozilla Thunderbird-ben==<br />
<br />
=== Alkalmazás jelszó létrehozása (Nextcloud) === <br />
<br />
A használathoz szükségünk van egy alkalmazás jelszó létrehozásához. <br />
<br />
Kattintsunk az alábbi linkre: https://nextcloud.<domain>/settings/user/security<br />
(Jelentkezzünk be a Nextcloud-ba ha előtte ez nem történt meg)<br />
<br />
Görgessünk az oldal aljára<br />
<br />
Az '''Alkalmazás név'''-hez írjuk be, hogy Outlook majd kattintsunk az '''Új alkalmazás jelszó''' létrehozása feliratra. <br />
<br />
[[Fájl:Caldav-outlook-5.jpg|bélyegkép|közép]]<br />
[[Fájl:Caldav-outlook-6.jpg|bélyegkép|közép]]<br />
<br />
Ha ez sikeresen megtörtént a Nextcloud létrehoz egy felhasználónév jelszó párost. Ezt a két adatot kell beírni később a Username és a Password-hoz.<br />
<br />
=== Naptár beállítása a Mozilla Thunderbird-ben ===<br />
<br />
Első lépésként menjünk a Nextcloud-ban menjünk a Naptár alkalmazásra (jelentkezzünk be ha korábban nem tettük meg)<br />
A bal oldali sávban találhatjuk a naptárainkat. Itt válasszuk azt a naptárat amelyet szeretnék felvenni a Thunderbird alkalmazásban. <br />
<br />
Közvetlen link:<br />
https://nextcloud.<domain>/apps/calendar/dayGridMonth/now oldalra <br />
<br />
[[Fájl:Caldav-thunderbird-1.jpg|bélyegkép|közép]]<br />
<br />
<br />
Kattintsunk a '''…''' gombra majd a legördülő menüből válasszuk ki a '''Személyes hivatkozás másolás''' lehetőséget. <br />
<br />
[[Fájl:Caldav-thunderbird-2.jpg|bélyegkép|közép]]<br />
<br />
Ha sikeres volt akkor a jobb oldalon az alábbi üzenet olvasható: ''''Naptári hivatkozás vágólapra másolva.'''' <br />
A kimásolt linkre később lesz szükségünk. <br />
<br />
Nyissuk meg a Mozilla Thunderbird alkalmazást. <br />
Váltsunk át a Naptár lapra a Naptár ikonra kattintva. <br />
<br />
[[Fájl:Caldav-thunderbird-3.jpg|bélyegkép|közép]]<br />
<br />
A bal oldali sávban kattintsunk a '''+''' jelre vagy jobb egérgomb '''Új naptár'''<br />
<br />
[[Fájl:Caldav-thunderbird-4.jpg|bélyegkép|közép]]<br />
<br />
Válasszuk ki a '''A hálózaton''' lehetőséget majd kattintsunk a '''Tovább''' gombra.<br />
<br />
[[Fájl:Caldav-thunderbird-5.jpg|bélyegkép|közép]]<br />
<br />
Itt válasszuk ki a '''CalDav'''-ot majd írjuk be a korábban elkészült felhasználónevünket illetve a vágólapra másolt naptár linkjét majd kattintsunk ismét a '''Tovább''' gombra. <br />
<br />
[[Fájl:Caldav-thunderbird-6.jpg|bélyegkép|közép]]<br />
<br />
Adjuk egy nevet a naptárnak (pl. Nextcloud – Naptár) majd kattintsunk a '''Tovább''' gombra és utána a '''Befejezés''' gombra.<br />
Ezután a felugró ablakban adjuk meg az Alkalmazás jelszó létrehozás során elkészült felhasználónevet és jelszót.<br />
<br />
Kattintsuk be a '''Jelszókezelő használata jelszó megjegyzésére''' opciót. <br />
Ennek használatával a rendszer később nem kéri be újra a jelszót. <br />
<br />
[[Fájl:Caldav-thunderbird-7.jpg|bélyegkép|közép]]<br />
<br />
Kattintsuk az '''OK'''-ra<br />
A naptárunk felvételre került<br />
<br />
=== Névjegyzék beállítása a Mozilla Thunderbird-ben ===<br />
<br />
Ehhez szükséges telepíteni egy plugint. <br />
Kattintsunk a '''A Thunderbird menü megjelenítése''' gombra. Itt válasszuk ki '''Kiegészítő''' menüpontot<br />
<br />
[[Fájl:Caldav-thunderbird-8.jpg|bélyegkép|közép]]<br />
<br />
A keresőbe írjuk be a ''''cardbook'''' szót majd nyomjunk egy Enter-t. Ekkor megjelenik egy új ablak. Válasszuk ki a '''Névjegyzék (Cardbook)''' kiegészítőt és kattintsunk a '''+ Hozzáadás ehhez: Thunderbird''' gombra. <br />
[[Fájl:Nevjegy-2.jpg|bélyegkép|közép]]<br />
[[Fájl:Nevjegy-3.jpg|bélyegkép|közép]]<br />
<br />
A jobb oldalon engedélyt kér az alkalmazás. Kattintsunk a '''Hozzáadásra''' majd az '''OK''' gombra. <br />
[[Fájl:Nevjegy-4.jpg|bélyegkép|közép]]<br />
<br />
Ha a kiegészítő sikeresen települt megjelenik egy újabb ikon.<br />
[[Fájl:Caldav-thunderbird-9.jpg|bélyegkép|közép]]<br />
<br />
<br />
''A korábban megnyitott ablakokat bezárhatjuk.''<br />
<br />
Kattintsunk a '''Névjegyek''' ikonra. <br />
<br />
[[Fájl:Caldav-thunderbird-10.jpg|bélyegkép|közép]]<br />
<br />
Kattintsunk a '''Minden névjegytár''' mappában jobb egér gombbal és válasszuk ki az '''Új névjegytár''' lehetőséget. <br />
<br />
[[Fájl:Caldav-thunderbird-11.jpg|bélyegkép|közép]]<br />
<br />
A felugró ablakban válasszuk ki a '''Távoli''' lehetőséget és kattintsunk a '''Tovább''' gombra. <br />
Válasszuk ki a '''CardDav''' lehetőséget. <br />
Webcímnek adjuk meg az alábbi címet: https://nextcloud.<domain>/remote.php/dav/<br />
<br />
Másik lehetőségünk ha a Nextcloud-ban megnyitjuk a '''Névjegyek''' alkalmazást majd rámegyünk a '''Settings''' lehetőségre<br />
<br />
[[Fájl:Caldav-thunderbird-12.jpg|bélyegkép|közép]]<br />
<br />
<br />
Kattintsunk a Névjegyek mellett megjelenő '''…'''-ra. Válasszuk a '''Hivatkozás másolása''' feliratot. <br />
A vágólapra került címet illesszük be a '''Webcímhez'''.<br />
<br />
<br />
[[Fájl:Caldav-thunderbird-13.jpg|bélyegkép|közép]]<br />
<br />
Felhasználónév és jelszónak adjuk meg a Alkalmazás jelszó létrehozás során elkészült felhasználónevet és jelszót.<br />
<br />
[[Fájl:Caldav-thunderbird-14.jpg|bélyegkép|közép]]<br />
<br />
Ha a szükséges adatokat megadtuk akkor kattintsunk az '''Érvényesít''' gombra. <br />
Ha az érvényesítés gomb sikeres volt akkor kattintsunk a '''Tovább''' gombra. <br />
Ezután megjelenik az '''Új névjegytár mappa'''<br />
<br />
[[Fájl:Caldav-thunderbird-15.jpg|bélyegkép|közép]]<br />
<br />
Itt tetszésünk szerint átnevezhetjük a Névjegytár nevét illetve a színüket.<br />
Kattintsunk a '''Tovább''' gombra majd a '''Befejezés''' gombra. <br />
Ha sikeres volt a hozzáadás akkor a '''Minden névjegytár''' mappában látható a felvett névjegytárunk.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=AAI&diff=4900AAI2021-10-18T07:15:54Z<p>Molnarp(AT)niif.hu: /* Föderációs alapinfrastruktúrák (IdP-k, SP-k) */</p>
<hr />
<div>=== Meghatározások ===<br />
<br />
* [[Föderáció]]<br />
* [[Pont-pont bizalmi kapcsolati modell]]<br />
* [[Metadata]]<br />
* [[Föderációs modellek]]<br />
* [[WAYF | Home Location Service]]<br />
* [[Shibboleth]]<br />
* [[AAIGettingStarted | Hogy kezdjem?]]<br />
<br />
===Föderációs alapinfrastruktúrák (IdP-k, SP-k)===<br />
Tapasztalatok alapján IdP esetén egyszerűsége miatt talán jobb választás a simpleSAMLphp, SP esetén Shibboleth ill. simpleSAMLphp egyaránt megfelelő választás mind beállítási, mind üzemeltetési szempontból.<br />
* Shibboleth IdP: [[Shib3IdpInstall|Telepítés, beállítás]], [[Shibboleth3 IdP|Egyéb leírások]], [[Shibboleth2 IdP|Shibboleth 2 IdP leírások]]<br />
* Shibboleth SP: [[ShibSP_QuickStart|Kezdőlépések]], [[Shibboleth2 SP|Egyéb leírások]]<br />
* simpleSAMLphp IdP és SP: [[SSP_QuickStart|Kezdőlépések]]<br />
* [[AAI/AzureADasAuthsource|Microsoft Azure AD hitelesítési forrás simpleSAMLphp-ben]]<br />
* [[IdP_whichone|Melyik IdP-t válasszam?]]<br />
<br />
===HREF/eduID föderációhoz kapcsolódó tudnivalók===<br />
* [[HREF Key Rollover 2020]]: Új metaadat aláírókulcs a HREF föderációban<br />
* [[HREF Key Rollover 2020 English]]: New metadata signing certificate<br />
* [[HREFContract]]: A föderációhoz kapcsolódó dokumentációk gyűjtőlapja<br />
* [[HREFAttributeSpec]]: A föderációban használható attribútumok specifikációja<br />
* [[HREFMetadataSpec]]: A föderációban használt metadata specifikációja<br />
* [[Resource_Registry]]: A föderáció adminisztrációs felületének leírása<br />
* [[JoiningEduGAIN]]: Tudnivalók az eduGAIN csatlakozással kapcsolatban<br />
* [[MDX]]: Igény szerinti metaadat-kiszolgálás<br />
* [[Sirtfi]]: Föderációs és föderációközi együttműködéshez kapcsolódó incidenskezelés keretei<br />
* [[URN]]: Magyar NREN-nél használt speciális azonosítók tára<br />
* [[URN_SCHAC]]: eduID.hu föderációban használt speciális azonosítók tára<br />
<br />
===További föderációs megoldások===<br />
* [[Shibboleth2 DiscoveryService]]: Shibboleth 2.0 SAML-kompatibilis Discovery Service<br />
* [[OpenSSO]]: Nehézsúlyú Java hozzáférés-szabályozást és federációt megvalósító rendszer<br />
* [[OpenID]]: Széles körben támogatott, de nem SAML-alapú federációt megvalósító rendszer<br />
* [[GoogleAuth]]: Google, mint [[OpenID]] szabványú IdP<br />
* [[mod_mellon]]: SP megoldás apache modulban. A SAML2 motort a [http://lasso.entrouvert.org Lasso] valósítja meg. [http://docs.feide.no/fs-0050]<br />
* [[oiosaml.java]]: Java SP megoldás, amit a Dán állam is használ. [http://www.softwareborsen.dk/projekter/softwarecenter/brugerstyring/oio-saml-java]<br />
* [[UApprove]]: Shibboleth 2.1.x IdP-hez illeszthető "consent-modul" beállításának leírása<br />
* [[Shibboleth troubleshooting]]: Shibboleth hibaelhárítás<br />
* [[Shibboleth Service Provider (SP) és Docker]]: Shibboleth és Docker összehangolása<br />
<br />
===Kiegészítő tudnivalók===<br />
* [[AAI_szolgáltatási_IP | Szolgáltatási IP tartományok ]]<br />
* [[Alkalmazások illesztése]]: Néhány alkalmazás Shibboleth-illesztésének leírása<br />
* [[Interoperabilitás mátrix]]: Shibboleth, OpenSSO, simpleSAMLphp együttműködési mátrix<br />
* [[Eszközök]]: Hasznos eszközök föderációk üzemeltetéséhez, használatához<br />
* [[Intézmény átnevezés]]: megfontolandó szempontok<br />
* [[FedCerts | Tanúsítványok a föderációban]]<br />
* [[HEXAATest | Test HEXAA (or any SAML AA) from command line]] <br />
* [[EduIDTest | Hogyan teszteljünk eduID IdP-t vagy SP-t?]]<br />
* [[Erasmusplus_ESI | Erasmus+ és ESI információk]]<br />
* [[Publikációk]]<br />
<br />
[[Kategória: Összefoglaló lapok]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=AAI&diff=4899AAI2021-10-18T07:15:32Z<p>Molnarp(AT)niif.hu: /* Föderációs alapinfrastruktúrák (IdP-k, SP-k) */</p>
<hr />
<div>=== Meghatározások ===<br />
<br />
* [[Föderáció]]<br />
* [[Pont-pont bizalmi kapcsolati modell]]<br />
* [[Metadata]]<br />
* [[Föderációs modellek]]<br />
* [[WAYF | Home Location Service]]<br />
* [[Shibboleth]]<br />
* [[AAIGettingStarted | Hogy kezdjem?]]<br />
<br />
===Föderációs alapinfrastruktúrák (IdP-k, SP-k)===<br />
Tapasztalatok alapján IdP esetén egyszerűsége miatt talán jobb választás a simpleSAMLphp, SP esetén Shibboleth ill. simpleSAMLphp egyaránt megfelelő választás mind beállítási, mind üzemeltetési szempontból.<br />
* Shibboleth IdP: [[Shib3IdpInstall|Telepítés, beállítás]], [[Shibboleth3 IdP|Egyéb leírások]], [[Shibboleth2 IdP|Shibboleth 2 IdP leírások]]<br />
* Shibboleth SP: [[ShibSP_QuickStart|Kezdőlépések]], [[Shibboleth2 SP|Egyéb leírások]]<br />
* simpleSAMLphp IdP és SP: [[SSP_QuickStart|Kezdőlépések]]<br />
* [[IdP_whichone|Melyik IdP-t válasszam?]]<br />
* [[AAI/AzureADasAuthsource|Microsoft Azure AD hitelesítési forrás simpleSAMLphp-ben]]<br />
<br />
===HREF/eduID föderációhoz kapcsolódó tudnivalók===<br />
* [[HREF Key Rollover 2020]]: Új metaadat aláírókulcs a HREF föderációban<br />
* [[HREF Key Rollover 2020 English]]: New metadata signing certificate<br />
* [[HREFContract]]: A föderációhoz kapcsolódó dokumentációk gyűjtőlapja<br />
* [[HREFAttributeSpec]]: A föderációban használható attribútumok specifikációja<br />
* [[HREFMetadataSpec]]: A föderációban használt metadata specifikációja<br />
* [[Resource_Registry]]: A föderáció adminisztrációs felületének leírása<br />
* [[JoiningEduGAIN]]: Tudnivalók az eduGAIN csatlakozással kapcsolatban<br />
* [[MDX]]: Igény szerinti metaadat-kiszolgálás<br />
* [[Sirtfi]]: Föderációs és föderációközi együttműködéshez kapcsolódó incidenskezelés keretei<br />
* [[URN]]: Magyar NREN-nél használt speciális azonosítók tára<br />
* [[URN_SCHAC]]: eduID.hu föderációban használt speciális azonosítók tára<br />
<br />
===További föderációs megoldások===<br />
* [[Shibboleth2 DiscoveryService]]: Shibboleth 2.0 SAML-kompatibilis Discovery Service<br />
* [[OpenSSO]]: Nehézsúlyú Java hozzáférés-szabályozást és federációt megvalósító rendszer<br />
* [[OpenID]]: Széles körben támogatott, de nem SAML-alapú federációt megvalósító rendszer<br />
* [[GoogleAuth]]: Google, mint [[OpenID]] szabványú IdP<br />
* [[mod_mellon]]: SP megoldás apache modulban. A SAML2 motort a [http://lasso.entrouvert.org Lasso] valósítja meg. [http://docs.feide.no/fs-0050]<br />
* [[oiosaml.java]]: Java SP megoldás, amit a Dán állam is használ. [http://www.softwareborsen.dk/projekter/softwarecenter/brugerstyring/oio-saml-java]<br />
* [[UApprove]]: Shibboleth 2.1.x IdP-hez illeszthető "consent-modul" beállításának leírása<br />
* [[Shibboleth troubleshooting]]: Shibboleth hibaelhárítás<br />
* [[Shibboleth Service Provider (SP) és Docker]]: Shibboleth és Docker összehangolása<br />
<br />
===Kiegészítő tudnivalók===<br />
* [[AAI_szolgáltatási_IP | Szolgáltatási IP tartományok ]]<br />
* [[Alkalmazások illesztése]]: Néhány alkalmazás Shibboleth-illesztésének leírása<br />
* [[Interoperabilitás mátrix]]: Shibboleth, OpenSSO, simpleSAMLphp együttműködési mátrix<br />
* [[Eszközök]]: Hasznos eszközök föderációk üzemeltetéséhez, használatához<br />
* [[Intézmény átnevezés]]: megfontolandó szempontok<br />
* [[FedCerts | Tanúsítványok a föderációban]]<br />
* [[HEXAATest | Test HEXAA (or any SAML AA) from command line]] <br />
* [[EduIDTest | Hogyan teszteljünk eduID IdP-t vagy SP-t?]]<br />
* [[Erasmusplus_ESI | Erasmus+ és ESI információk]]<br />
* [[Publikációk]]<br />
<br />
[[Kategória: Összefoglaló lapok]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Cloud_for_Education&diff=4626Cloud for Education2020-05-26T07:03:59Z<p>Molnarp(AT)niif.hu: /* Lemez típusok */</p>
<hr />
<div>== Hozzáférés ==<br />
<br />
A szolgáltatás elérési helye https://c4e.niif.hu.<br />
<br />
<br />
== Karbantartások ==<br />
<br />
A C4E szolgáltatást nyújtó gépekre az alábbi ütemezés szerint telepítjük a frissítéseket:<br />
<br />
* Minden hónap '''második hétfőjén''' nap közben (délelőtt 10 órától) megkezdődik a rendszer vezérlő gépeinek frissítése (Adatbázis, vezérlő gépek, terheléselosztó, hálózati node-ok)<br />
A művelet során néhányszor 2-3 percre '''elérhetetlen lehet a webfelület''', illetve a hálózati csomópontok újraindításának következtében néhányszor 1-2 percre a '''Smart''' hálózatok elérése akadozhat, amíg a tartalék irány működésbe nem lép.<br />
<br />
* Minden hónap '''második hétfőjén''' este egy második frissítési ciklust is tartunk az alábbiak szerint<br />
** Páratlan hónapokban a '''Compute''' gépeket frissítjük, ami azzal jár, hogy futó virtuális gépeket elmigráljuk a fizikai gépekről. A folyamat során néhányszor 1 percre a futó virtuális erőforrások elérhetetlenek lehetnek, illetve folyamatosan íródó memóriájú gépeknél előfordul, hogy csak a virtuális gép leállításával/elindításával lesz sikeres a migráció.<br />
*** A több zónás működésnek köszönhetően, egyidőben csak egy zónába tartozó virtuális gépeket érintenek a fent említett esetleges rövid kimaradások, mivel a zónákhoz tartozó erőforrások frissítése külön történik!<br />
** Páros hónapokban a diszk alrendszert '''(CEPH)''' frissítjük. Ilyenkor a háttérben '''adatszinkronizáció zajlik''', ami '''lassíthat egyes IO kéréseket''', de a felhasználók felé ez a művelet eddigi tapasztalataink alapján többnyire transzparens.<br />
<br />
==Ismertető==<br />
OpenStack verzió: ROCKY<br />
<br />
22 perces ismertető, ami az NWS 2016-on hangzott el. http://videotorium.hu/hu/recordings/details/13396,Cloud4Education_-_Kezdo_lepesek<br />
<br />
===Igényelhető virtuális erőforrás-csomagok (flavor)===<br />
A virtuális gépek létrehozásakor több féle "hardvercsomagból" választhatunk, amelyek az alábbi képen tekinthetők meg.<br />
<br />
[[File:Flavors.PNG|665px|Flavors]]<br />
<br />
A táblázatban látható root lemezek mérete természetesen a virtuális gép létrehozásakor változtatható.<br />
<br />
===Felhasználói felület bemutatása===<br />
<br />
====Dashboard áttekintés====<br />
[[File:dashboard_overview.jpg|665px|Dashboard]]<br />
<br />
Bejelentkezés után a projekthez tartozó kvóta használtsága látható, ezen kvóták szabályozása admin felhasználóval tehető meg. A használtság áttekintésén felül lehetőség van arra, hogy a felhasználó lekérdezze egy adott periódus alatt használt vCPU, Disk és RAM mennyiségét, valamint ezek az információk letölthetők excel táblázat formájában is. A bal oldali menüstruktúra több részből tevődik össze, amelyből a két legfontosabb a Project fül alatt talákható „Compute” és a „Network” opció. A „Compute” menüpont alatt találhatók azok a funkciók, amelyek ahhoz szükségesek, hogy virtuális gépeket tudjunk igénybe venni és az ehhez tartozó adminisztratív teendőinket is itt tudjuk elvégezni. A „Network” menüpont alatt kezelhetjük a virtuális gépeinkhez szükséges hálózatokat. Itt hozhatunk létre például virtuális routereket, hálózatokat, valamint adminisztrálhatjuk őket. A következőkben bemutatásra kerül, hogyan tud egy felhasználó néhány kattintás segítségével egy lemezképfájlt feltölteni, majd a képfájlból virtuális gépet létrehozni, valamint a rendelkezésre álló funkciókat igénybe venni.<br />
<br />
====Új image feltöltés====<br />
A virtuális gép létrehozásához szükség van lemezképfájlra, amelyet egy működő http url-ről könnyedén letölthetünk a „Compute” menüpont alatt található „Images” lehetőség használatával, vagy használhatjuk az előre feltöltött image-eket, amelyeket az admin jogosultságú felhasználók biztosítanak számunkra. Az „images” lehetőséget választva látható a rendelkezésre álló lemezképfájlok listája. A jobb felső sarokban a „Create Image” lehetőséget választva készíthetünk lemezképet. Az alábbi példa egy Ubuntu 18.04 (Bionic) verziójú lemezkép letöltését szemlélteti.<br />
<br />
[[File: Upload_image.png |724px|Image készítés]]<br />
<br />
A fenti ábrán látható módon, néhány szükséges információt meg kell adni, ilyenek például: <br />
* Név <br />
* Lemezképfájl helye: A feltölteni kívánt lemezképfájl internetes elérhetősége url-ről történő feltöltés esetén<br />
* Format: például QCOW2 – QEMU Emulator<br />
<br />
Fontos: Kizárólag a saját projektek alá van jogosultsága a felhasználóknak lemezképfájlokat feltölteni!<br />
<br />
=====Mindenki számára elérhető Image-ek* (Forrás: http://docs.openstack.org/image-guide/obtain-images.html)=====<br />
{| class="wikitable" border="1" <br />
|- <br />
| Operációs Rendszer <br />
| Bejelentkezési név <br />
| Minimum diszk méret <br />
|- <br />
| Ubuntu 14.04 Trusty Tahr<br />
| ubuntu <br />
| 5 GB <br />
|- <br />
| Ubuntu 16.04 Xenial<br />
| ubuntu <br />
| 5 GB <br />
|- <br />
| CentOS 6<br />
| centos <br />
| 8 GB <br />
|- <br />
| CentOS 7 <br />
| centos <br />
| 8 GB <br />
|- <br />
| Debian 8.3 <br />
| debian <br />
| 5 GB <br />
|- <br />
| CoreOS <br />
| core <br />
| 10GB <br />
|- <br />
| Fedora 23 <br />
| fedora <br />
| 5 GB <br />
|- <br />
| Windows 7 Pro SP1<br />
| setupuser/Qwer1234<br />
| 17 GB <br />
<br />
|- <br />
|}<br />
<br />
* Minden Linux alapú image-ből készített virtuális gépnél az alapértelmezett felhasználó jelszó nélkül sudo képes!<br />
<br />
===Kulcspár létrehozása/publikus kulcs feltöltése===<br />
A „Compute” menüpont alatt található "Key Pairs" lehetőséget választva hozzáadhatunk saját kulcspárokat, így a neutron szerverek által futtatott metadata szolgáltatás eljuttatja a publikus kulcsunkat a létrehozott virtuális gépre és a privát kulcsunkkal könnyedén tudunk autentikálni a létrehozott gépeken. Ehhez válasszuk a hozzáadás lehetőséget és adjuk meg a publikus kulcsunkat a következő ábrán látható módon.<br />
<br />
EGYES CLOUD LEMEZKÉPFÁJLOK KIZÁRÓLAG KULCS HASZNÁLATÁVAL VEHETŐK IGÉNYBE!<br />
<br />
[[File:Import_pubkey.png|726px|Publikus kulcs importálása]]<br />
<br />
===Hálózati típusok===<br />
Az általunk megépített rendszerben végül két fajta hálózat kapott helyet: <br />
* Az egyik típus, amit Flat néven kereszteltünk el. Ennek lényege, hogy a létrehozott virtuális gépek egy előre meghatározott publikus IP tartományból DHCP segítségével felvesznek egy címet, majd a csomagok haladásának iránya közvetlenül a compute gépek felé történik, ezzel nem terhelve a network gépeket. <br />
** <small>A FLAT1 névre keresztelt hálózathoz tartozó szabad IPv4 címek száma nagyon kevés, ezért kérjük a felhasználóinkat, hogy lehetőség szerint, amennyiben FLAT típusú hálózatot szeretnének hozzáadni az újonnan létrehozott virtuális gépekhez, a FLAT2 nevű hálózatot válasszák. Megértésüket és együttműködésüket köszönjük!</small><br />
* A másik hálózati típus, amely az Smart nevet kapta. Ez a hálózati típus nagyban különbözik az előző megoldástól, mivel ennél a típusnál a felhasználóknak lehetőségük van egy, vagy akár több privát hálózat, valamint egy vagy több ezekhez tartozó virtuális router létrehozására. A virtuális router-hez lehetőség van hozzárendelni IP címeket a privát, valamint egy publikus hálózatból is és ennek következtében a virtuális gépek forgalmában egy úgynevezett hálózati címfordítás történik. Ennek előnye az előző megoldással szemben, hogy kevésbé IP cím pazarló a publikus címek tekintetében, valamint a neutron funkciójának köszönhetően képes több network gép között tartalékolt lenni.<br />
<br />
Az Flat típusú hálózat felvételére kizárólag admin jogosultságú felhasználónak van lehetősége két féle módon. Az egyik lehetőség, hogy a létrehozott Flat hálózat shared típusú, vagyis megosztott hálózat, ami azt jelenti, hogy a hálózat minden projekt számára látható. A másik lehetőség, hogy a létrehozott hálózatot nem osztjuk meg másik projekttel, azonban hozzárendeljük egy bizonyos projekthez, ezzel garantálva, hogy egy IP cím tartományt csak egy projekt használ kizárólag. <br />
<br />
Az Smart hálózat és egy hozzá tartozó virtuális router felvételét az alábbiakban mutatjuk be.<br />
<br />
====External (L3) hálózat létrehozása====<br />
Segédlet L3 (SMART) hálózat létrehozásához az alábbi oldalon tekinthető meg:<br />
<br />
[[Cloud for Education/network l3|L3 hálózat létrehozása]]<br />
<br />
====Router létrehozása és Interfészek hozzáadása====<br />
<br />
A hálózat sikeres elkészítése után szükség van egy virtuális router létrehozására, amelyen keresztül fog a hálózati címfordítás történni. A router létrehozása a következő képeken látható<br />
<br />
[[File:Create_router.png|727px|Router létrehozás]]<br />
<br />
<br />
<br />
A Virtuális router létrehozásánál az „External Network”, azaz a külső hálózatok listájánál a rendelkezésre álló Smart hálózatok közül van lehetőség választani. Miután ez megtörtént, a router-hez szükség van egy másik interfész hozzáadására is, az előzőleg létrehozott belső hálózatból. Ennek hozzáadásához a „Routers” menüpontot választva, a forgalomirányítók listájából válasszuk ki az előbbiekben létrehozott „Internal-Router”-t, majd az „Interfaces” fülön az „Add Interface” lehetőséget választva, adjunk hozzá egy interfészt a következő ábrán látható módon.<br />
<br />
[[File:Add_if.png|723px|Router létrehozás]]<br />
<br />
====Security group-ok====<br />
<br />
A virtuális gépek eléréséhez szükség van tűzfalszabályok definiálására, amelyre a „Security Groups” fülön van lehetőség. Alapértelmezetten egy „Default” security group jön létre, amelyben a következő forgalmak vannak alapértelmezetten engedélyezve:<br />
* Bejövő forgalom esetén: Kizárólag az azonos Security Group-ban elhelyezett virtuális gépekről érkező forgalmak<br />
* Kimenő forgalom esetén: Minden forgalom engedélyezve van<br />
<br />
A lenti példa szemlélteti, hogy hogyan engedélyezhetjük az SSH és ICMP forgalmakat minden külső hálózatból:<br />
<br />
[[File:Add_rule1.png|723px|Szabály létrehozása]]<br />
<br />
[[File:Add_rule2.png|723px|Szabály létrehozása]]<br />
<br />
[[File:Sec_grp.png|723px|Szabály létrehozása]]<br />
<br />
<br />
Természetesen nem kötelező a Default security group-ot módosítani, létrehozható másik szabályrendszer is, és hozzárendelhető akár több csoport is egy virtuális géphez. A szabályok hozzáadásával lehetőség van a gép távoli elérésére a megadott protokollon keresztül.<br />
<br />
====LBaaS====<br />
A C4E az "OpenStack Octavia" alapú LoadBalancer-t kínálja a felhasználóknak, HAProxy backenddel.<br />
Az esetleges titkosított kapcsolatok terminálásakor a "Barbican" tanúsítvány manager eszköz biztosítja a privát kulcsok biztonságos tárolását.<br />
<br />
A terheléselosztó konfigurációs beállításai két fajta módon tehető meg:<br />
<br />
1. Horizon grafikus felületen a NETWORK menüpont alatt,<br />
<br />
2. CLI használatával, amelyhez a standard OpenStack CLI eszközön felül az alábbi csomagok telepítése is szükséges.<br />
<br />
(Debian/Ubuntu rendszeren)<br />
<pre>$ apt install python-barbicanclient python3-octaviaclient</pre><br />
<br />
[[Cloud for Education#C4E_.28Openstack.29_Publikus_API|Általános CLI használati információk]]<br />
<br />
'''Rövid ismertető:'''<br />
<br />
[[File: Octavia-component-overview.jpg |724px|Octavia component overview]]<br />
<br />
Az Octavia LBaaS rendszer az alábbi főbb komponensekből áll:<br />
* Amphorae: Különálló virtuális gépek, amik egy Ubuntu alapú Amphora image-ből példányosodnak, mikor a felhasználó új terheléselosztót hoz létre<br />
** A sablon image-ből létrehozott virtuális gépek nem számítanak bele a felhasználói kvótába, azok flavor-je specifikus, belépni rájuk a felhasználó nem tud<br />
* Octavia&Barbican API<br />
* Controller Worker (az API kérések alapján vezérli a háttérkomponenseket)<br />
* Health Manager (figyeli a már létrehozott "Amphorae" virtuális gépeket, és azok állapotát, hiba esetén failover műveleteket hajt végre)<br />
* Housekeeping Manager (a hibás/törölt maradványok eltávolításáért felel)<br />
* Driver Agent (információkat fogad az egyes amphora példányokon futó Haproxy drivertől)<br />
<br />
A fentiek közül a felhasználónak csupán az API-val kell kommunikálnia, akár a Horizon felületén, akár a CLI-ből szeretné létrehozni és managelni a LoadBalancer-t.<br />
<br />
'''Segédlet a létrehozáshoz példákkal illusztrálva:'''<br />
* Példa [[Cloud for Education/LBaaS gui|GUI]] igénybevételével<br />
* Példa [[Cloud for Education/LBaaS cli|CLI]] használatával<br />
<br />
'''Működés/Hibatűrés:'''<br />
<br />
A rendszer alapvető elosztottsága miatt nincs központi "leállás", minden egyes terheléselosztó pont annyira stabil, mint a C4E-ben futó többi virtuális gép. Alapvetően egy adott projekt egy adott terheléselosztójához tartozó amphora image hibája (virtuális gép leáll, lefagy) esetén a Health Managerre hagyatkozunk. <br />
<br />
A gép újraindításán túl akár egy '''új amphorae virtuális gép'''et is létre tud hozni a háttérben, és a már '''meglévő konfiguráció'''t alkalmazni rá.<br />
Arra azonban figyelni kell, hogy egy újraindítás, vagy egy új image létrehozása néhány perces kiesést jelenthet az adott projekthez tartozó terheléselosztó szolgáltatásban, de ilyenre alapvetően nem számítunk.<br />
<br />
Fontos, hogy egy korábbi tervezett leállításkor (ahol kézzel többször leállítottuk a már meglévő terheléselosztókat) a Health Manager sajnálatos módon nem tudta a többszöri leállítást és újraindítást (egymásra futva) megfelelően kezelni. <br />
Itt a karbantartás végén adminisztrátori beavatkozásra volt szükség, kézzel kellett failovert kérni minden terheléselosztóra.<br />
Erre a forgatókönyvre se számítunk üzemszerű használat mellett (maximum egy esetleges tervezett leálláskor, nem várt komolyabb hiba javításakor) de erre minden esetben nagy figyelmet fordítanak a karbantartást/javítást végző kollégák.<br />
<br />
'''Amennyiben beragadt/hibás terheléselosztót észlelnek, kérjük forduljanak ügyfélszolgálatunkhoz!'''<br />
<br />
'''Terheléselosztó törlése:'''<br />
<br />
Sajnálatos módon előfordulhat, hogy egy-egy terheléselosztó nem törölhető és hibaüzenet figyelmeztet erre. ('''CLI-n van rá force opció!''')<br />
<br />
Ennek a megoldása, hogy "szét kell szedni" a terheléselosztót, amelyhez a következő lépésekre van szükség:<br />
* törölni kell a pool-t, a listener-t, a monitort<br />
* majd végül magát a terheléselosztót<br />
<br />
====FWaaS====<br />
<br />
Az FWaaS funkció jelenleg nem elérhető.<br />
<br />
===Lemez típusok===<br />
<br />
{| class="wikitable" border="1" <br />
|- <br />
| Lemez típus<br />
| Sebesség<br />
| Méret<br />
| Technológia<br />
| Javasolt használat<br />
|- <br />
| SDS-Nearline<br />
| +<br />
| +++<br />
| Skálázódó szoftveres tároló<br />
| Tömeges adattárolás, alacsony kihasználtságú VM lemeze.<br />
|- <br />
| SDS-SAS<br />
| ++<br />
| ++<br />
| Skálázódó szoftveres tároló<br />
| Általános célú adattárolás, változó adatok, normál kihasználtságú VM lemeze.<br />
|-<br />
| SAN-Nearline<br />
| +<br />
| +++<br />
| Klasszikus SAN storage<br />
| Tömeges adattárolás, alacsony kihasználtságú VM lemeze.<br />
|- <br />
| SAN-SAS<br />
| ++<br />
| ++<br />
| Klasszikus SAN storage<br />
| Általános célú adattárolás, változó adatok, normál kihasználtságú VM lemeze.<br />
|- <br />
| SAN-SSD<br />
| +++<br />
| +<br />
| Klasszikus SAN storage<br />
| Gyakran változó adatok, magas kihasználtságú VM lemeze.<br />
|- <br />
<br />
|}<br />
<br />
==Virtuális gép indítása==<br />
Az előfeltételek teljesítése után elkészíthető a kívánt virtuális gép. Ehhez válasszuk a bal oldali menüből a „Compute”, azon belül pedig az „Instances” lehetőséget, majd a jobb felső sarokban válasszuk a „Launch Instance” gombot és az alábbi képeken látható módon készítsük el a gépet.<br />
<br />
===VM elenevezése===<br />
Első lépésben válasszunk egy nevet az újonnan létrehozni kívánt virtuális gépnek, majd adjuk ezt meg az "Instance Name" mező értékének.<br />
<br />
[[File:Li1.png|726px|VM Name]]<br />
<br />
===Image választás===<br />
A "Next" gombra kattintva, a VM forrásával kapcsolatos beállításokat szükséges elvégezni. A következő ábrán látható módon válasszunk ki a rendelkezésre álló lemezképfájlok közül egyet, valamint állítsuk be a kívánt lemez méretet.<br />
<br />
[[File:Li2.png|726px|VM Source]]<br />
<br />
===Flavor választás===<br />
<br />
[[File:Li3.png|726px|VM Select flavor]]<br />
<br />
===Hálózat kiválasztása===<br />
<br />
Következő lépésként meg kell adni a használni kívánt hálózatot. Ez legyen a példában létrehozott „Internal” hálózat.<br />
<br />
[[File:Li4.png|726px|VM Select network]]<br />
<br />
===Security group társítása===<br />
Az ábrán látható módon megadhatjuk, hogy mely Security Group(-ok) vonatkozzon a virtuális gépünkre.<br />
<br />
[[File:Li5.png|726px|VM Select sec_grp]]<br />
<br />
===Publikus kulcs társítása===<br />
Az ábrán látható módon a VM létrehozásakor kiválaszthatjuk az előzőleg feltöltött publikus kulcsunkat, vagy feltölthetünk egy teljesen újat is a létrehozás közben.<br />
<br />
[[File:Li6.png|726px|VM Select pub_key]]<br />
<br />
A „Launch” lehetőséget választva elkezdhetjük a virtuális gép létrehozását. A folyamat elkészültekor az „Instances” fül alatt láthatjuk az eddig létrehozott virtuális gépeinket és azok állapotát.<br />
<br />
[[File:Li7.png|726px|Létrehozott VM lista]]<br />
<br />
A folyamat elvégzése után elkészült az első virtuális gép, amelynek elérése több féle módon történhet.<br />
* A virtuális géphez hozzárendelünk egy publikus IP címet, majd a háttérben a neutron 1:1 NAT alkalmazásával ennek megfelelően konfigurálja a virtuális routert, és így távolról is bejelentkezhetünk rá, Linux disztribúció esetén például SSH, Windows esetén RDP szolgáltatás segítségével.<br />
<br />
* A weboldalba ágyazott VNC konzol segítségével vezérelhetjük gépünket, azonban egyes előre gyártott lemezképfájlból készített virtuális gépek nem támogatják csak a kulcsos autentikációt, így sajnos ezeknél a gépeknél ez a módszer nem elérhető.<br />
<br />
====Floating IP hozzárendelése====<br />
Az előzőekben létrehozott Ubuntu operációs rendszerrel ellátott virtuális gépünk a második lehetőséget nem támogatja, így szükségünk van a gép eléréséhez egy publikus IP címre, amelynek allokálása és géphez rendelése a következőképpen történik.<br />
<br />
Első lépésben válasszuk a „Project” alatt található „Network” lehetőséget, majd azon belül a „Floating IPs” menüpontot és kattintsunk a jobb felső sarokban lévő „Allocate IP To Project” gombra. A megjelenő ablakban ki kell választani a kívánt Smart hálózatot, amelyből a publikus IP címet szeretnénk használni (Ez nyilván az a hálózat, amelyiket a router átjárójának is választottunk), majd az „Allocate IP” lehetőséget kell választani.<br />
<br />
[[File:Allocate_ip1.png|726px|Floating IP igénylése]]<br />
<br />
<br />
A következő ábrán látható a Projekthez allokált IP címek listája, amelyek következő lépésként hozzárendelhetők 1-1 virtuális géphez. Ehhez válasszuk az ábrán látható IP cím mellett található „Associate” lehetőséget, majd válasszuk ki a listából azt a virtuális gépet, amelyiken az IP címet használni szeretnénk.<br />
<br />
[[File:Allocate_ip2.png|726px|Rendelkezésre álló IP címek listája]]<br />
<br />
<br />
[[File:Allocate_ip3.png|726px|Floating IP géphez rendelése]]<br />
<br />
A sikeres hozzárendelés után a gépünk már rendelkezik publikus IP címmel, amelyen keresztül külső hálózatokból is elérhetjük a gépet, amennyiben ezt a Security Group-ban, vagy a Firewall alatt engedélyezzük.<br />
<br />
==Virtuális gépek kezelése==<br />
<br />
===Snapshot létrehozása/indítás snapshotból===<br />
<br />
További lehetőség a létrehozott virtuális géppel kapcsolatban, hogy bármikor készíthetünk róla egy úgynevezett pillanatképet, amelyből később létrehozhatunk egy másik virtuális gépet, folytatva ott a munkát, ahol a pillanatkép készült, a régi gépet pedig leállíthatjuk, vagy törölhetjük. Ehhez a már ismert „Compute” menüpont alatt válasszuk a „Volume” lehetőséget. A kilistázott Volume-ok között válasszuk ki a megfelelőt, majd az „Actions” szekcióban található legördülő menüből válasszuk a „Create Snapshot” lehetőséget. Az ábrán látható módon adjunk neki egy nevet, majd készítsük el a pillanatképet.<br />
<br />
[[File:Create_snapshot1.png|723px|Snapshot létrehozás]]<br />
<br />
<br />
Az elkészült pillanatképből készítsünk egy újabb virtuális gépet, a már ismert módon, azzal a különbséggel, hogy a gépet ezúttal ne image-ből, hanem snapshot-ból indítsuk.<br />
<br />
[[File:Create_snapshot2.png|724px|Snapshot létrehozás]]<br />
<br />
==="Extrém" diszkigény kielégítése===<br />
<br />
Előfordul, hogy valamilyen projekthez nagyobb (TB-os nagyságrendű) területre van szükség, mint amit a kvóta megenged. Habár a kvóta növelésével könnyen orvosolhatnánk egyes felhasználók helyigényét, ezt sajnos <big>nem áll módunkban</big> megtenni, ugyanis azzal felborulna a kiosztott erőforrások közötti egyensúly (nem lenne terület, ahonnan bootoljanak az új gépek, a CPU/RAM pedig kihasználatlan maradna) valamint bizonyos szolgáltatások (jellemzően az adatbázis-szerverek) számára nem előnyös a CEPH alapú háttértár.<br />
<br />
A fenti probléma megoldására lehetőséget teremtettünk a Storage szolgáltatásunkban résztvevő egyik Eternus tárolóeszköz integrálására a C4E alá. Ez azt jelenti, hogy a C4E rendszerében konfigurálásra került egy "iSCSI1" és "iSCSI2" nevű hálózat, melynek használatával közvetlen Layer2 kapcsolattal éri el az Eternus egységet a felhasználó virtuális számítógépe, szemben a többi tárolónkkal, amihez a publikus hálózaton keresztül (route-olva) lehet hozzáférni.<br />
<br />
'''<big>FONTOS!''' Az "iSCSI1" és "iSCSI2" hálózat '''NEM nyújt publikus elérést''', azon keresztül '''csak az iSCSI targetek''' elérése lehetséges!</big><br />
<br />
<br />
'''<big>FONTOS! A fenti tároló nem önkiszolgáló! ''' A használathoz előbb '''[https://webform.niif.hu/content/storage-igenyles ''területigénylést kell benyújtani'']''', ahol be kell jelölni a ''' "A terület(ek)re a C4E szolgáltatás keretében használt virtuális gépe(i)mről kívánok csatlakozni!"''' opciót a második oldalon, majd a '''pozitív elbírálás után''' a megadott paraméterekkel lehet csatlakozni a tárolóhoz!</big><br />
<br />
<br />
<br />
==== Csatlakozás Linux alapú operációs rendszer alól ====<br />
<br />
<br />
===== Óvintézkedés! =====<br />
<br />
Sajnos az iSCSI jelenléte boot időben előfordul, hogy a virtuális gépet megállítja a boot során. Ez alapból nem lenne probléma, viszont a sablon image-ek alapértelmezetten egy read only konzolra küldik az emergency shell kimenetét, amin nem lehet módosításokat végezni. <br />
<br />
<big>'''FONTOS!''' Az esetleges konfigurációs hibákból adódó hibás virtuális gépek javításában '''NEM tudunk''' segíteni, az esetleges adatvesztésért felelősséget nem vállalunk!</big><br />
<br />
A fentiekből kifolyólag célszerű átállítani az extlinux rendszerbetöltőt az iSCSI-t használó gépeken az alábbiak szerint:<br />
<br />
* Az eredeti állomány:<br />
<pre><br />
debian@iscsiteszt-5:~$ cat /extlinux.conf<br />
default linux<br />
timeout 1<br />
label linux<br />
kernel boot/vmlinuz-3.16.0-4-amd64<br />
append initrd=boot/initrd.img-3.16.0-4-amd64 root=/dev/vda1 console=tty0 console=ttyS0,115200 ro quiet<br />
</pre><br />
<br />
* Átírás után (az utolsó sor végén '''helyet cserél''' a két console paraméter, és a '''tty0-ból tty1 lesz'''):<br />
<br />
<pre><br />
debian@iscsiteszt-5:~$ cat /extlinux.conf<br />
default linux<br />
timeout 1<br />
label linux<br />
kernel boot/vmlinuz-3.16.0-4-amd64<br />
append initrd=boot/initrd.img-3.16.0-4-amd64 root=/dev/vda1 console=ttyS0,115200 console=tty1 ro quiet<br />
</pre><br />
<br />
Ezen módosítás azonban több ismert hátránnyal jár:<br />
<br />
* Nem lesz elérhető a boot során keletkező read-only konzolkimenet (bootidőben persze látszik a VNC konzolon)<br />
* Firefox és Chrome újabb verziói alatt problémák lehetnek a VNC konzol elérésével/válaszidejével (ez sajnos egy fejlesztők által ismert, de még nem javított hiba)<br />
<br />
===== Előkészületek =====<br />
* Konfigurálni kell az interfészeket<br />
Ez az Debian base image-nél alapból konfigurálva van az alábbi módon:<br />
<pre><br />
root@iscsiteszt:/home/debian# cat /etc/network/interfaces <br />
# This file describes the network interfaces available on your system <br />
# and how to activate them. For more information, see interfaces(5). <br />
# The loopback network interface auto lo iface lo inet loopback <br />
<br />
# The normal eth0 <br />
auto eth0 <br />
iface eth0 inet dhcp <br />
<br />
# Maybe the VM has 2 NICs? <br />
allow-hotplug eth1 <br />
iface eth1 inet dhcp <br />
<br />
# Maybe the VM has 3 NICs? <br />
allow-hotplug eth2 <br />
iface eth2 inet dhcp<br />
</pre><br />
<br />
Ennek hatására az eth1 és eth2 interfész címei:<br />
<pre><br />
root@iscsiteszt:/home/debian# ip a<br />
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default<br />
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br />
inet 127.0.0.1/8 scope host lo<br />
valid_lft forever preferred_lft forever<br />
inet6 ::1/128 scope host<br />
valid_lft forever preferred_lft forever<br />
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000<br />
link/ether fa:16:3e:f0:84:6d brd ff:ff:ff:ff:ff:ff<br />
inet 193.224.22.182/24 brd 193.224.22.255 scope global eth0<br />
valid_lft forever preferred_lft forever<br />
inet6 fe80::f816:3eff:fef0:846d/64 scope link<br />
valid_lft forever preferred_lft forever<br />
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000<br />
link/ether fa:16:3e:17:05:1e brd ff:ff:ff:ff:ff:ff<br />
inet 192.168.168.53/23 brd 192.168.169.255 scope global eth1<br />
valid_lft forever preferred_lft forever<br />
inet6 fe80::f816:3eff:fe17:51e/64 scope link<br />
valid_lft forever preferred_lft forever<br />
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000<br />
link/ether fa:16:3e:f1:ba:0a brd ff:ff:ff:ff:ff:ff<br />
inet 192.168.170.51/23 brd 192.168.171.255 scope global eth2<br />
valid_lft forever preferred_lft forever<br />
inet6 fe80::f816:3eff:fef1:ba0a/64 scope link<br />
valid_lft forever preferred_lft forever<br />
</pre><br />
<br />
'''<big>FONTOS!''' Ezen interfészek akár statikus címhasználatra is konfigurálhatók, de a C4E biztonsági megoldásai miatt kizárólag '''a C4E felületén megjelenő IP címek''' esetén lesz képes csomagot forgalmazni a virtuális gép a tároló felé! </big><br />
<br />
* Csomagtelepítés (Debian alapú rendszeren)<br />
<pre>apt-get install open-iscsi multipath-tools</pre><br />
<br />
* Multipath konfigurálása (Debian alatt létre kell hozni a fájlt)<br />
<pre><br />
root@iscsiteszt:/home/debian# cat /etc/multipath.conf<br />
devices {<br />
device {<br />
vendor "FUJITSU"<br />
product "ETERNUS_DXL"<br />
prio alua<br />
path_grouping_policy group_by_prio<br />
no_path_retry queue<br />
failback immediate<br />
}<br />
}<br />
</pre><br />
<br />
* Multipath daemon újraindítása<br />
<pre>root@iscsiteszt:/home/debian# service multipath-tools restart</pre><br />
<br />
* iSCSI Initiator name konfigurálása (ezt meg kellett adni az igényléskor... természetesen most lehet módosítani az állományt, később viszont fontos az ott olvasható figyelmeztetés)<br />
<pre><br />
root@iscsiteszt:/home/debian# cat /etc/iscsi/initiatorname.iscsi<br />
## DO NOT EDIT OR REMOVE THIS FILE!<br />
## If you remove this file, the iSCSI daemon will not start.<br />
## If you change the InitiatorName, existing access control lists<br />
## may reject this initiator. The InitiatorName must be unique<br />
## for each iSCSI initiator. Do NOT duplicate iSCSI InitiatorNames.<br />
InitiatorName=iqn.2017-03.hu.niif.test:c4e<br />
</pre><br />
<br />
* iSCSI daemon újraindítása<br />
<pre>root@iscsiteszt:/home/debian# service open-iscsi restart</pre><br />
<br />
<br />
===== Targetek konfigurálása =====<br />
<br />
====== The easy way ======<br />
Egy letölthető bash szkript, ami megcsinál mindent: '''[[:File:Iscsi-site-admin-c4e.sh|iscsi-site-admin-c4e.sh]]'''<br />
<br />
====== The hard way ======<br />
<br />
A következő lépés az iSCSI targetekhez történő csatlakozás. (A leírásban az username és password paraméterek a felhasználót (initiatort, azaz a virtuális gépet) azonosító egyedi paraméterek, míg az username_in és password_in a Mutual CHAP (bidirectional) azonosításhoz használható (target-et, azaz magát az Eternus tárolót azonosító) paraméterek. (Az username_in, azaz a <target CHAP felhasználó> tipikusan "eternus"...)<br />
<br />
Az alábbi parancsköteg jelszavait kell megfelelően lecserélni, majd a konzolra bemásolva csatlakozni a tárolóhoz:<br />
<br />
<big>--- Target 001 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o new<br />
iscsiadm -m node -p 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
<big>--- Target 011 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o new<br />
iscsiadm -m node -p 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
<big>--- Target 101 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o new<br />
iscsiadm -m node -p 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
<big>--- Target 111 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o new<br />
iscsiadm -m node -p 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
Az egyes csoportok beillesztése után (konkrétan a csoportok utolsó előtti parancsa miatt) minden targetre be kell jelentkezzen, és az alábbihoz hasonló üzeneteknek kell megjelenni:<br />
<pre><br />
root@iscsiteszt-5:/home/debian# iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -l<br />
Logging in to [iface: default, target: iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1, portal: 192.168.170.2,3260] (multiple)<br />
Login to [iface: default, target: iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1, portal: 192.168.170.2,3260] successful.<br />
</pre><br />
<br />
Miután mind a négy targetre sikerült a bejelentkezés, már csak a multipath ellenőrzése van hátra, ahol a lentihez hasonló kimenetnek kell megjelenjen:<br />
<pre><br />
root@iscsiteszt-5:/home/debian# multipath -ll<br />
3600000e00d280000002825d2001a0000 dm-0 FUJITSU,ETERNUS_DXL<br />
size=200G features='1 queue_if_no_path' hwhandler='0' wp=rw<br />
|-+- policy='service-time 0' prio=50 status=active<br />
| |- 3:0:0:0 sdd 8:48 active ready running<br />
| `- 5:0:0:0 sdb 8:16 active ready running<br />
`-+- policy='service-time 0' prio=10 status=enabled<br />
|- 2:0:0:0 sda 8:0 active ready running<br />
`- 4:0:0:0 sdc 8:32 active ready running<br />
</pre><br />
<br />
Itt jól látszik, hogy mind a négy útvonal ép, és az első kettő az aktív, a másik kettő pedig bármikor rendelkezésre áll. Amennyiben a path-ok nem jelennének meg, az alábbi parancs segítségével újratölthető a devmap:<br />
multipath -r<br />
<br />
===== Szépészeti beavatkozások =====<br />
<br />
Az iSCSI un. WWID-ket használ (ami a <code>multipath -ll</code> kimenetében jól látszik) az egyes területek azonosítására, ami sajnos olvashatatlan, és körülményes tud lenni. Az egyszerűbb megnevezések érdekében lehetőség van a korábban szerkesztett <code>multipath.conf</code> állomány bővítésére az alábbi módon (a teljes állomány látható, a fent található Eternus releváns konfigurációval együtt):<br />
<br />
<pre><br />
root@iscsiteszt-5:/home/debian# cat /etc/multipath.conf<br />
devices {<br />
device {<br />
vendor "FUJITSU"<br />
product "ETERNUS_DXL"<br />
prio alua<br />
path_grouping_policy group_by_prio<br />
no_path_retry queue<br />
failback immediate<br />
}<br />
}<br />
multipaths {<br />
multipath {<br />
wwid 3600000e00d280000002825d2001a0000<br />
alias terulet1<br />
}<br />
multipath {<br />
wwid 3600000e00d280000002825d2001b0000<br />
alias terulet2<br />
}<br />
}<br />
<br />
</pre><br />
<br />
Ha kész az átnevezés (és persze nincsenek a területek csatolva sehol), újra kell olvastatni a devmapot (esetleg újra kell indítani a szervert):<br />
multipath -r<br />
<br />
<pre><br />
root@iscsiteszt-5:/home/debian# multipath -r<br />
Mar 23 11:13:37 | 3600000e00d280000002825d2001a0000: rename 3600000e00d280000002825d2001a0000 to terulet1 <br />
rename: terulet1 (3600000e00d280000002825d2001a0000) undef FUJITSU,ETERNUS_DXL<br />
size=200G features='1 queue_if_no_path' hwhandler='0' wp=undef<br />
|-+- policy='service-time 0' prio=50 status=undef<br />
| |- 3:0:0:0 sdd 8:48 active ready running<br />
| `- 5:0:0:0 sdb 8:16 active ready running<br />
`-+- policy='service-time 0' prio=10 status=undef<br />
|- 4:0:0:0 sdc 8:32 active ready running<br />
`- 6:0:0:0 sda 8:0 active ready running<br />
Mar 23 11:13:37 | 3600000e00d280000002825d2001b0000: rename 3600000e00d280000002825d2001b0000 to terulet2<br />
rename: terulet2 (3600000e00d280000002825d2001b0000) undef FUJITSU,ETERNUS_DXL<br />
size=200G features='1 queue_if_no_path' hwhandler='0' wp=undef<br />
|-+- policy='service-time 0' prio=50 status=undef<br />
| |- 4:0:0:1 sdg 8:96 active ready running<br />
| `- 6:0:0:1 sdf 8:80 active ready running<br />
`-+- policy='service-time 0' prio=10 status=undef<br />
|- 3:0:0:1 sdh 8:112 active ready running<br />
`- 5:0:0:1 sde 8:64 active ready running<br />
</pre><br />
<br />
==== Csatlakozás Windows alapú operációs rendszer alól (hamarosan) ====<br />
<br />
===== Előkészületek =====<br />
<br />
A gépet természetesen hozzá kell adni a megfelelő "Eternus7 - iSCSI1" és "Eternus7 - iSCSI2" hálózatokhoz.<br />
<br />
Sajnos a Windows Multipath rendszere nem képes korrektül kezelni az Eternus tárolókat, ezért első lépésként fel kell telepíteni a Fujitsu Eternus MultiPath Drivert (EMPD)<br />
A cikk írásakor ez a V2.0L23-as (2016/12/21) verziója, amit az alábbi módon lehet letölteni:<br />
<br />
# http://www.fujitsu.com/fts/support/<br />
# táblázatban katt: Storage<br />
# "Ask Fujitsu! We are here to help" ablakban a "Please select the product group"-nál "ETERNUS DX" kiválasztása<br />
# "Please select the product family"-nél "ETERNUS DX200 S3" kiválasztása<br />
# A megjelenő oldalon a megfelelő Windows verzió kiválasztása<br />
# Driver fül alatt "Device Driver"-t nyissuk ki egy kattintással<br />
# legfrissebb elérhető driver ("EMPD - Multipath Driver for Windows ...") letöltése "Direct download"-ra kattintással<br />
#*("I have read and agree to the terms and conditions." checkbox bepipálásával elfogadva a felhasználási feltételeket)<br />
# Az állomány egy exe, ami kicsomagol egy mappát, amiben lesz egy iso állomány.<br />
# Az iso-t csatolva az English/setup.exe lesz az, amit fel kell telepíteni a többutas tároló megfelelő működéséhez.<br />
<br />
===== Initiator konfigurálása =====<br />
<br />
# A "Felügyeleti eszközök" közül az "iSCSI-kezdeményező" / "iSCSI-Initiator" -t kell választani<br />
# Igennel kell válaszolni, hogy automatikusan elinduljon az iSCSI a továbbiakban<br />
# A megnyitott ablakban a "Konfiguráció" fül alatt a "Kezdeményező neve:" részhez be kell állítani az IQN-t, amit a storage igénylésekor megadtunk (ehhez az alatta lévő módosítás gombra kell kattintani)<br />
<br />
== C4E (Openstack) Publikus API ==<br />
<br />
<big> '''FONTOS!''' </big> Az API külvilági elérését csomagszűrő tűzfal védi, és kizárólag az általunk ismert magyarországi IP(v4/v6) címekről érhető el.<br />
Akkor, ha timeout hiba merülne fel, a cloud@niif.hu címen kell jelezni az elérés igényét, és a kérdéses IP címet.<br />
Amennyiben az IP valóban hazai cím, és még nem szerepel a tűzfalban, rövid távon permanensen az egész alhálózat számára elérhetővé tesszük az API-t.<br />
<br />
<big> '''FONTOS!''' </big> Minden itt leírt dokumentáció a C4E openstack jelenlegi (Mitaka) verziójához készült!<br />
<br />
<br />
=== Kezdő lépések: jelszó szerzése ===<br />
<br />
Kialakításra került a C4E publikus API elérése. Ahhoz, hogy a felhasználók ezt igénybe tudják venni, az alábbiak szükségesek:<br />
<br />
* Első lépésben küldeni kell egy levelet az alábbiakkal a '''cloud@niif.hu''' címre:<br />
** C4E projekt(ek) neve<br />
** C4E usernév (ez szinte biztosan az eppn)<br />
** Privát kezelésben lévő belföldi mobiltelefon száma, ahova SMS formájában küldjük el az eléréshez szükséges jelszót<br />
<br />
A levélnek arról az e-mail címről kell származnia, ami az adott intézmény IdP-je adott át a C4E-nek az eppn mellett!<br />
<br />
=== Kezdő lépések: környezet kialakítása (Debian/Ubuntu) ===<br />
<br />
Első körben hozzá kell adni a repository-t az apt konfigurációjához, frissíteni a csomaglistát, majd telepíteni a szükséges csomagokat:<br />
<br />
Debian:<br />
<pre><br />
echo "deb http://http.debian.net/debian jessie-backports main" >>/etc/apt/sources.list.d/openstack.list<br />
apt-get update<br />
apt-get install python-openstackclient<br />
</pre><br />
<br />
Ubuntu (A 16.04-es verziótól Mitaka verziót tölt le az eredeti konfigurációval):<br />
<pre><br />
apt-get update<br />
apt-get install python-openstackclient<br />
</pre><br />
<br />
Telepítés SNAP-ből:<br />
<pre><br />
sudo snap install openstackclients --classic<br />
</pre><br />
<br />
Második körben be kell szerezni a szükséges <big>'''openrc'''</big> file-t az api eléréséhez:<br />
* Be kell jelentkezni a C4E-be (IdP-n keresztül természetesen)<br />
* Ki kell választani az elérni kívánt projektet, ha több lenne (az rc file-ok projektfüggők!)<br />
* Az <big>''' Access & Security -> API Access '''</big> oldalon a <big>''' Download OpenStack RC File v3 '''</big> opciót választani<br />
* Az rc file-t a kezelő gépre juttatni (ha nem ott lenne)<br />
<br />
A harmadik lépés, hogy betöltjük az rc file-t, majd a jelszó beírása után elérhetővé válik a C4E API<br />
<br />
<pre><br />
debian@apitest:~$ source cloudadmin_v3.rc<br />
Please enter your OpenStack Password:<br />
<br />
debian@apitest:~$ openstack server list<br />
+--------------------------------------+-----------------+--------+----------------------------------------------------------------------------------+<br />
| ID | Name | Status | Networks |<br />
+--------------------------------------+-----------------+--------+----------------------------------------------------------------------------------+<br />
| 3ac59936-cdae-4822-9855-60fabeff135f | apitest | ACTIVE | Flat1=2001:738:0:519:f816:3eff:fedd:d5e8, 193.224.22.225 ||<br />
+--------------------------------------+-----------------+--------+----------------------------------------------------------------------------------+<br />
debian@apitest:~$<br />
</pre><br />
<br />
=== API használata ===<br />
<br />
Az API használatával kapcsolatban a mindenkori Openstack dokumentáció a mérvadó: https://developer.openstack.org/api-guide/quick-start/api-quick-start.html#<br />
<br />
Ugyanezen oldalról egy (hálózat/ssh kulcs nélküli!) instance elindításának kezdő lépései: https://developer.openstack.org/api-guide/quick-start/api-quick-start.html#launch-an-instance<br />
<br />
Az openstack parancs elérhető funkciói (ebből természetesen van, ami a felhasználó számára nem, illetve olyan is, ami nincs implementálva!):<br />
<br />
Részlet az <big>'''openstack --help'''</big> kiementéből:<br />
<br />
<pre><br />
Commands:<br />
access token create Create access token command<br />
aggregate add host Add host to aggregate<br />
aggregate create Create a new aggregate<br />
aggregate delete Delete an existing aggregate<br />
aggregate list List all aggregates<br />
aggregate remove host Remove host from aggregate<br />
aggregate set Set aggregate properties<br />
aggregate show Show a specific aggregate<br />
backup create Create backup command<br />
backup delete Delete backup command<br />
backup list List backup command<br />
backup restore Restore backup command<br />
backup show Show backup command<br />
complete print bash completion command<br />
compute agent create Create compute agent command<br />
compute agent delete Delete compute agent command<br />
compute agent list List compute agent command<br />
compute agent set Set compute agent command<br />
compute service list List service command<br />
compute service set Set service command<br />
console log show Show console-log command<br />
console url show Show console-url command<br />
consumer create Create consumer command<br />
consumer delete Delete consumer command<br />
consumer list List consumer command<br />
consumer set Set consumer command<br />
consumer show Show consumer command<br />
container list List containers<br />
container show Show container information<br />
credential create Create credential command<br />
credential delete Delete credential command<br />
credential list List credential command<br />
credential set Set credential command<br />
credential show Show credential command<br />
domain create Create domain command<br />
domain delete Delete domain command<br />
domain list List domain command<br />
domain set Set domain command<br />
domain show Show domain command<br />
endpoint create Create endpoint command<br />
endpoint delete Delete endpoint command<br />
endpoint list List endpoint command<br />
endpoint set Set endpoint command<br />
endpoint show Show endpoint command<br />
extension list List extension command<br />
flavor create Create flavor command<br />
flavor delete Delete flavor command<br />
flavor list List flavor command<br />
flavor show Show flavor command<br />
group add user Add user to group<br />
group contains user Checks that user is in a specific group<br />
group create Create group command<br />
group delete Delete group command<br />
group list List groups<br />
group remove user Remove user to group<br />
group set Set group command<br />
group show Show group command<br />
help print detailed help for another command<br />
host list List host command<br />
host show Show host command<br />
hypervisor list List hypervisor command<br />
hypervisor show Show hypervisor command<br />
identity provider create Create identity_provider command<br />
identity provider delete Delete identity provider<br />
identity provider list List identity providers<br />
identity provider set Set identity provider<br />
identity provider show Show identity provider<br />
image create Create/upload an image<br />
image delete Delete an image<br />
image list List available images<br />
image save Save an image locally<br />
image set Change image properties<br />
image show Show image details<br />
ip fixed add Add fixed-ip command<br />
ip fixed remove Remove fixed-ip command<br />
ip floating add Add floating-ip command<br />
ip floating create Create floating-ip command<br />
ip floating delete Delete floating-ip command<br />
ip floating list List floating-ip command<br />
ip floating pool list List floating-ip-pool command<br />
ip floating remove Remove floating-ip command<br />
keypair create Create keypair command<br />
keypair delete Delete keypair command<br />
keypair list List keypair command<br />
keypair show Show keypair command<br />
limits show Show compute and volume limits<br />
module list List module versions<br />
object list List objects<br />
object show Show object information<br />
policy create Create policy command<br />
policy delete Delete policy command<br />
policy list List policy command<br />
policy set Set policy command<br />
policy show Show policy command<br />
project create Create new project<br />
project delete Delete project<br />
project list List projects<br />
project set Set project properties<br />
project show Show project command<br />
project usage list List resource usage per project.<br />
quota set Set quotas for project or class<br />
quota show Show quotas for project or class<br />
request token authorize Authorize request token command<br />
request token create Create request token command<br />
role add Adds a role to a user or group on a domain or project<br />
role assignment list Lists role assignments according to the given filters<br />
role create Create new role<br />
role delete Delete existing role<br />
role list List roles<br />
role remove Remove role command<br />
role set Set role command<br />
role show Show single role<br />
security group create Create a new security group<br />
security group delete Delete a security group<br />
security group list List all security groups<br />
security group rule create Create a new security group rule<br />
security group rule delete Delete a security group rule<br />
security group rule list List all security group rules<br />
security group set Set security group properties<br />
security group show Show a specific security group<br />
server add security group Add security group to server<br />
server add volume Add volume to server<br />
server create Create a new server<br />
server delete Delete server command<br />
server image create Create a new disk image from a running server<br />
server list List servers<br />
server lock Lock server<br />
server migrate Migrate server to different host<br />
server pause Pause server<br />
server reboot Perform a hard or soft server reboot<br />
server rebuild Rebuild server<br />
server remove security group Remove security group from server<br />
server remove volume Remove volume from server<br />
server rescue Put server in rescue mode<br />
server resize Convert server to a new flavor<br />
server resume Resume server<br />
server set Set server properties<br />
server show Show server details<br />
server ssh Ssh to server<br />
server suspend Suspend server<br />
server unlock Unlock server<br />
server unpause Unpause server<br />
server unrescue Restore server from rescue mode<br />
server unset Unset server properties<br />
service create Create new service<br />
service delete Delete service<br />
service list List services<br />
service set Set service properties<br />
service show Show service details<br />
snapshot create Create snapshot command<br />
snapshot delete Delete snapshot command<br />
snapshot list List snapshot command<br />
snapshot set Set snapshot command<br />
snapshot show Show snapshot command<br />
token issue Issue token command<br />
user create Create new user<br />
user delete Delete user<br />
user list List users<br />
user set Set user properties<br />
user show Show user details<br />
volume create Create new volume<br />
volume delete Delete volume<br />
volume list List volumes<br />
volume set Set volume properties<br />
volume show Show specific volume<br />
volume type create Create new volume type<br />
volume type delete Delete volume type<br />
volume type list List volume types<br />
volume type set Set volume type property<br />
volume type unset Unset volume type property<br />
volume unset Unset volume properties<br />
</pre><br />
<br />
Az egyes parancsok részletes leírását így lehet elérni:<br />
<pre><br />
debian@apitest:~$ openstack help server list<br />
usage: openstack server list [-h] [-f {csv,table}] [-c COLUMN]<br />
[--max-width <integer>]<br />
[--quote {all,minimal,none,nonnumeric}]<br />
[--reservation-id <reservation-id>]<br />
[--ip <ip-address-regex>]<br />
[--ip6 <ip-address-regex>] [--name <name>]<br />
[--status <status>] [--flavor <flavor>]<br />
[--image <image>] [--host <hostname>]<br />
[--instance-name <server-name>] [--all-projects]<br />
[--long]<br />
<br />
List servers<br />
<br />
optional arguments:<br />
-h, --help show this help message and exit<br />
--reservation-id <reservation-id><br />
Only return instances that match the reservation<br />
--ip <ip-address-regex><br />
Regular expression to match IP addresses<br />
--ip6 <ip-address-regex><br />
Regular expression to match IPv6 addresses<br />
--name <name> Regular expression to match names<br />
--status <status> Search by server status<br />
--flavor <flavor> Search by flavor ID<br />
--image <image> Search by image ID<br />
--host <hostname> Search by hostname<br />
--instance-name <server-name><br />
Regular expression to match instance name (admin only)<br />
--all-projects Include all projects (admin only)<br />
--long List additional fields in output<br />
<br />
output formatters:<br />
output formatter options<br />
<br />
-f {csv,table}, --format {csv,table}<br />
the output format, defaults to table<br />
-c COLUMN, --column COLUMN<br />
specify the column(s) to include, can be repeated<br />
<br />
table formatter:<br />
--max-width <integer><br />
Maximum display width, 0 to disable<br />
<br />
CSV Formatter:<br />
--quote {all,minimal,none,nonnumeric}<br />
when to include quotes, defaults to nonnumeric<br />
<br />
debian@apitest:~$<br />
</pre><br />
<br />
Amennyiben valamilyen problémába merül fel, célszerű a parancsot -v (-vv -vvv) kapcsolóval futtatni, és egy esetleges hibabejelentésnél a kimenetet csatolni.<br />
<br />
==FAQ==<br />
<br />
===Nem sikerült az image létrehozása a webfelületen===<br />
Valószínűleg bejelölted a "Public" lehetőséget, amelyhez a felhasználóknak nincs jogosultságuk. Erre csak admin jogosultságú felhasználó képes.<br />
<br />
===Nem tudom, hogy mi az azonosító és jelszó a példányosított image-emhez.===<br />
Mert nem kötötted hozzá a publikus kulcsodat, amit előzőleg feltöltöttél az access & security key pairs fül alatt. Az SSH kulcsos azonosítással történik. A felhasználói nevek a [[C4E#Ig.C3.A9nyelhet.C5.91_virtu.C3.A1lis_er.C5.91forr.C3.A1s-csomagok_.28flavor.29|Flavors]] táblázatban vannak feltüntetve.<br />
<br />
=== Nem tudok belépni a gépre távolról ===<br />
Az alapértelmezett tűzfalszabályok nem engedélyezik a kívülről jövő kapcsolatokat. Konfigurációjuk leírása a [[#Security_group-ok|Security group-ok]] szakaszban található.<br />
<br />
=== Nem sikerült a csatlakozás a konzolra ===<br />
<br />
A hibaüzenet: ''Failed to connect to server (code: 1006)''.<br />
Ilyenkor az F5 gomb megnyomása segít.<br />
<br />
===Nem tudok a létrehozott VM konzolján gépelni===<br />
Ahhoz, hogy gépelni tudjunk, vagy grafikus felülettel rendelkező operációs rendszer esetén az egérrel dolgozni, a konzol melletti szürke területre kell kattintani és NEM a konzol ablakába.<br />
<br />
===Baj van a DNS-el, <code>resolv.conf</code>-fal, stb.===<br />
A C4E networking stackje több irányból konfigurálja egy-egy VM DNS beállításait.<br />
<br />
==== DHCP oldali beállítások ====<br />
Ahhoz, hogy a DHCP ne írja felül minduntalan a <code>resolv.conf</code> egyes sorait a következőt érdemes tenni:<br />
<br />
A <code>/etc/dhcp/dhclient.conf</code> állományt értelemszerűen bővíteni kell az alábbi(ak közül szükséges) sorokkal:<br />
<pre><br />
supersede domain-name "sajatdomain.hu";<br />
supersede domain-search "sajatdomain.hu";<br />
supersede domain-name-servers 8.8.8.8, 8.8.4.4;<br />
</pre><br />
<br />
==== Cloudinit oldali beállítások ====<br />
Minden C4E virtuális gépen megtalálható egy ún. "Cloudinit" szkriptrendszer, ami az egyes beállításokat (hostnév, diszknövelés, ssh kulcs, stb.) hivatott beállítani.<br />
Ahhoz, hogy a Cloudinit ne állítsa át a hostnevet, és a hosts állományt, az alábbi konfiguráció szükséges a <code>/etc/cloud/cloud.cfg</code> állományban:<br />
<pre><br />
# This will cause the set+update hostname module to not operate (if true)<br />
preserve_hostname: true<br />
<br />
manage_etc_hosts: false<br />
</pre><br />
<br />
<br />
===IPv6 címre van szükségem, a felület szerint kapnom kéne, de mégsem===<br />
Ennek oka, hogy az adott Security Group nem "engedi be" az SLAAC-hoz szükséges hirdetési információkat. A tűzfal alábbiak szerinti bővítése, és egy virtuális gép reboot megoldja a problémát:<br />
<br />
[[Fájl:ipv6_secgroup.png|665px|ICMPv6 Enable]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Cloud_for_Education&diff=4625Cloud for Education2020-05-26T06:55:43Z<p>Molnarp(AT)niif.hu: /* Hálózati típusok */</p>
<hr />
<div>== Hozzáférés ==<br />
<br />
A szolgáltatás elérési helye https://c4e.niif.hu.<br />
<br />
<br />
== Karbantartások ==<br />
<br />
A C4E szolgáltatást nyújtó gépekre az alábbi ütemezés szerint telepítjük a frissítéseket:<br />
<br />
* Minden hónap '''második hétfőjén''' nap közben (délelőtt 10 órától) megkezdődik a rendszer vezérlő gépeinek frissítése (Adatbázis, vezérlő gépek, terheléselosztó, hálózati node-ok)<br />
A művelet során néhányszor 2-3 percre '''elérhetetlen lehet a webfelület''', illetve a hálózati csomópontok újraindításának következtében néhányszor 1-2 percre a '''Smart''' hálózatok elérése akadozhat, amíg a tartalék irány működésbe nem lép.<br />
<br />
* Minden hónap '''második hétfőjén''' este egy második frissítési ciklust is tartunk az alábbiak szerint<br />
** Páratlan hónapokban a '''Compute''' gépeket frissítjük, ami azzal jár, hogy futó virtuális gépeket elmigráljuk a fizikai gépekről. A folyamat során néhányszor 1 percre a futó virtuális erőforrások elérhetetlenek lehetnek, illetve folyamatosan íródó memóriájú gépeknél előfordul, hogy csak a virtuális gép leállításával/elindításával lesz sikeres a migráció.<br />
*** A több zónás működésnek köszönhetően, egyidőben csak egy zónába tartozó virtuális gépeket érintenek a fent említett esetleges rövid kimaradások, mivel a zónákhoz tartozó erőforrások frissítése külön történik!<br />
** Páros hónapokban a diszk alrendszert '''(CEPH)''' frissítjük. Ilyenkor a háttérben '''adatszinkronizáció zajlik''', ami '''lassíthat egyes IO kéréseket''', de a felhasználók felé ez a művelet eddigi tapasztalataink alapján többnyire transzparens.<br />
<br />
==Ismertető==<br />
OpenStack verzió: ROCKY<br />
<br />
22 perces ismertető, ami az NWS 2016-on hangzott el. http://videotorium.hu/hu/recordings/details/13396,Cloud4Education_-_Kezdo_lepesek<br />
<br />
===Igényelhető virtuális erőforrás-csomagok (flavor)===<br />
A virtuális gépek létrehozásakor több féle "hardvercsomagból" választhatunk, amelyek az alábbi képen tekinthetők meg.<br />
<br />
[[File:Flavors.PNG|665px|Flavors]]<br />
<br />
A táblázatban látható root lemezek mérete természetesen a virtuális gép létrehozásakor változtatható.<br />
<br />
===Felhasználói felület bemutatása===<br />
<br />
====Dashboard áttekintés====<br />
[[File:dashboard_overview.jpg|665px|Dashboard]]<br />
<br />
Bejelentkezés után a projekthez tartozó kvóta használtsága látható, ezen kvóták szabályozása admin felhasználóval tehető meg. A használtság áttekintésén felül lehetőség van arra, hogy a felhasználó lekérdezze egy adott periódus alatt használt vCPU, Disk és RAM mennyiségét, valamint ezek az információk letölthetők excel táblázat formájában is. A bal oldali menüstruktúra több részből tevődik össze, amelyből a két legfontosabb a Project fül alatt talákható „Compute” és a „Network” opció. A „Compute” menüpont alatt találhatók azok a funkciók, amelyek ahhoz szükségesek, hogy virtuális gépeket tudjunk igénybe venni és az ehhez tartozó adminisztratív teendőinket is itt tudjuk elvégezni. A „Network” menüpont alatt kezelhetjük a virtuális gépeinkhez szükséges hálózatokat. Itt hozhatunk létre például virtuális routereket, hálózatokat, valamint adminisztrálhatjuk őket. A következőkben bemutatásra kerül, hogyan tud egy felhasználó néhány kattintás segítségével egy lemezképfájlt feltölteni, majd a képfájlból virtuális gépet létrehozni, valamint a rendelkezésre álló funkciókat igénybe venni.<br />
<br />
====Új image feltöltés====<br />
A virtuális gép létrehozásához szükség van lemezképfájlra, amelyet egy működő http url-ről könnyedén letölthetünk a „Compute” menüpont alatt található „Images” lehetőség használatával, vagy használhatjuk az előre feltöltött image-eket, amelyeket az admin jogosultságú felhasználók biztosítanak számunkra. Az „images” lehetőséget választva látható a rendelkezésre álló lemezképfájlok listája. A jobb felső sarokban a „Create Image” lehetőséget választva készíthetünk lemezképet. Az alábbi példa egy Ubuntu 18.04 (Bionic) verziójú lemezkép letöltését szemlélteti.<br />
<br />
[[File: Upload_image.png |724px|Image készítés]]<br />
<br />
A fenti ábrán látható módon, néhány szükséges információt meg kell adni, ilyenek például: <br />
* Név <br />
* Lemezképfájl helye: A feltölteni kívánt lemezképfájl internetes elérhetősége url-ről történő feltöltés esetén<br />
* Format: például QCOW2 – QEMU Emulator<br />
<br />
Fontos: Kizárólag a saját projektek alá van jogosultsága a felhasználóknak lemezképfájlokat feltölteni!<br />
<br />
=====Mindenki számára elérhető Image-ek* (Forrás: http://docs.openstack.org/image-guide/obtain-images.html)=====<br />
{| class="wikitable" border="1" <br />
|- <br />
| Operációs Rendszer <br />
| Bejelentkezési név <br />
| Minimum diszk méret <br />
|- <br />
| Ubuntu 14.04 Trusty Tahr<br />
| ubuntu <br />
| 5 GB <br />
|- <br />
| Ubuntu 16.04 Xenial<br />
| ubuntu <br />
| 5 GB <br />
|- <br />
| CentOS 6<br />
| centos <br />
| 8 GB <br />
|- <br />
| CentOS 7 <br />
| centos <br />
| 8 GB <br />
|- <br />
| Debian 8.3 <br />
| debian <br />
| 5 GB <br />
|- <br />
| CoreOS <br />
| core <br />
| 10GB <br />
|- <br />
| Fedora 23 <br />
| fedora <br />
| 5 GB <br />
|- <br />
| Windows 7 Pro SP1<br />
| setupuser/Qwer1234<br />
| 17 GB <br />
<br />
|- <br />
|}<br />
<br />
* Minden Linux alapú image-ből készített virtuális gépnél az alapértelmezett felhasználó jelszó nélkül sudo képes!<br />
<br />
===Kulcspár létrehozása/publikus kulcs feltöltése===<br />
A „Compute” menüpont alatt található "Key Pairs" lehetőséget választva hozzáadhatunk saját kulcspárokat, így a neutron szerverek által futtatott metadata szolgáltatás eljuttatja a publikus kulcsunkat a létrehozott virtuális gépre és a privát kulcsunkkal könnyedén tudunk autentikálni a létrehozott gépeken. Ehhez válasszuk a hozzáadás lehetőséget és adjuk meg a publikus kulcsunkat a következő ábrán látható módon.<br />
<br />
EGYES CLOUD LEMEZKÉPFÁJLOK KIZÁRÓLAG KULCS HASZNÁLATÁVAL VEHETŐK IGÉNYBE!<br />
<br />
[[File:Import_pubkey.png|726px|Publikus kulcs importálása]]<br />
<br />
===Hálózati típusok===<br />
Az általunk megépített rendszerben végül két fajta hálózat kapott helyet: <br />
* Az egyik típus, amit Flat néven kereszteltünk el. Ennek lényege, hogy a létrehozott virtuális gépek egy előre meghatározott publikus IP tartományból DHCP segítségével felvesznek egy címet, majd a csomagok haladásának iránya közvetlenül a compute gépek felé történik, ezzel nem terhelve a network gépeket. <br />
** <small>A FLAT1 névre keresztelt hálózathoz tartozó szabad IPv4 címek száma nagyon kevés, ezért kérjük a felhasználóinkat, hogy lehetőség szerint, amennyiben FLAT típusú hálózatot szeretnének hozzáadni az újonnan létrehozott virtuális gépekhez, a FLAT2 nevű hálózatot válasszák. Megértésüket és együttműködésüket köszönjük!</small><br />
* A másik hálózati típus, amely az Smart nevet kapta. Ez a hálózati típus nagyban különbözik az előző megoldástól, mivel ennél a típusnál a felhasználóknak lehetőségük van egy, vagy akár több privát hálózat, valamint egy vagy több ezekhez tartozó virtuális router létrehozására. A virtuális router-hez lehetőség van hozzárendelni IP címeket a privát, valamint egy publikus hálózatból is és ennek következtében a virtuális gépek forgalmában egy úgynevezett hálózati címfordítás történik. Ennek előnye az előző megoldással szemben, hogy kevésbé IP cím pazarló a publikus címek tekintetében, valamint a neutron funkciójának köszönhetően képes több network gép között tartalékolt lenni.<br />
<br />
Az Flat típusú hálózat felvételére kizárólag admin jogosultságú felhasználónak van lehetősége két féle módon. Az egyik lehetőség, hogy a létrehozott Flat hálózat shared típusú, vagyis megosztott hálózat, ami azt jelenti, hogy a hálózat minden projekt számára látható. A másik lehetőség, hogy a létrehozott hálózatot nem osztjuk meg másik projekttel, azonban hozzárendeljük egy bizonyos projekthez, ezzel garantálva, hogy egy IP cím tartományt csak egy projekt használ kizárólag. <br />
<br />
Az Smart hálózat és egy hozzá tartozó virtuális router felvételét az alábbiakban mutatjuk be.<br />
<br />
====External (L3) hálózat létrehozása====<br />
Segédlet L3 (SMART) hálózat létrehozásához az alábbi oldalon tekinthető meg:<br />
<br />
[[Cloud for Education/network l3|L3 hálózat létrehozása]]<br />
<br />
====Router létrehozása és Interfészek hozzáadása====<br />
<br />
A hálózat sikeres elkészítése után szükség van egy virtuális router létrehozására, amelyen keresztül fog a hálózati címfordítás történni. A router létrehozása a következő képeken látható<br />
<br />
[[File:Create_router.png|727px|Router létrehozás]]<br />
<br />
<br />
<br />
A Virtuális router létrehozásánál az „External Network”, azaz a külső hálózatok listájánál a rendelkezésre álló Smart hálózatok közül van lehetőség választani. Miután ez megtörtént, a router-hez szükség van egy másik interfész hozzáadására is, az előzőleg létrehozott belső hálózatból. Ennek hozzáadásához a „Routers” menüpontot választva, a forgalomirányítók listájából válasszuk ki az előbbiekben létrehozott „Internal-Router”-t, majd az „Interfaces” fülön az „Add Interface” lehetőséget választva, adjunk hozzá egy interfészt a következő ábrán látható módon.<br />
<br />
[[File:Add_if.png|723px|Router létrehozás]]<br />
<br />
====Security group-ok====<br />
<br />
A virtuális gépek eléréséhez szükség van tűzfalszabályok definiálására, amelyre a „Security Groups” fülön van lehetőség. Alapértelmezetten egy „Default” security group jön létre, amelyben a következő forgalmak vannak alapértelmezetten engedélyezve:<br />
* Bejövő forgalom esetén: Kizárólag az azonos Security Group-ban elhelyezett virtuális gépekről érkező forgalmak<br />
* Kimenő forgalom esetén: Minden forgalom engedélyezve van<br />
<br />
A lenti példa szemlélteti, hogy hogyan engedélyezhetjük az SSH és ICMP forgalmakat minden külső hálózatból:<br />
<br />
[[File:Add_rule1.png|723px|Szabály létrehozása]]<br />
<br />
[[File:Add_rule2.png|723px|Szabály létrehozása]]<br />
<br />
[[File:Sec_grp.png|723px|Szabály létrehozása]]<br />
<br />
<br />
Természetesen nem kötelező a Default security group-ot módosítani, létrehozható másik szabályrendszer is, és hozzárendelhető akár több csoport is egy virtuális géphez. A szabályok hozzáadásával lehetőség van a gép távoli elérésére a megadott protokollon keresztül.<br />
<br />
====LBaaS====<br />
A C4E az "OpenStack Octavia" alapú LoadBalancer-t kínálja a felhasználóknak, HAProxy backenddel.<br />
Az esetleges titkosított kapcsolatok terminálásakor a "Barbican" tanúsítvány manager eszköz biztosítja a privát kulcsok biztonságos tárolását.<br />
<br />
A terheléselosztó konfigurációs beállításai két fajta módon tehető meg:<br />
<br />
1. Horizon grafikus felületen a NETWORK menüpont alatt,<br />
<br />
2. CLI használatával, amelyhez a standard OpenStack CLI eszközön felül az alábbi csomagok telepítése is szükséges.<br />
<br />
(Debian/Ubuntu rendszeren)<br />
<pre>$ apt install python-barbicanclient python3-octaviaclient</pre><br />
<br />
[[Cloud for Education#C4E_.28Openstack.29_Publikus_API|Általános CLI használati információk]]<br />
<br />
'''Rövid ismertető:'''<br />
<br />
[[File: Octavia-component-overview.jpg |724px|Octavia component overview]]<br />
<br />
Az Octavia LBaaS rendszer az alábbi főbb komponensekből áll:<br />
* Amphorae: Különálló virtuális gépek, amik egy Ubuntu alapú Amphora image-ből példányosodnak, mikor a felhasználó új terheléselosztót hoz létre<br />
** A sablon image-ből létrehozott virtuális gépek nem számítanak bele a felhasználói kvótába, azok flavor-je specifikus, belépni rájuk a felhasználó nem tud<br />
* Octavia&Barbican API<br />
* Controller Worker (az API kérések alapján vezérli a háttérkomponenseket)<br />
* Health Manager (figyeli a már létrehozott "Amphorae" virtuális gépeket, és azok állapotát, hiba esetén failover műveleteket hajt végre)<br />
* Housekeeping Manager (a hibás/törölt maradványok eltávolításáért felel)<br />
* Driver Agent (információkat fogad az egyes amphora példányokon futó Haproxy drivertől)<br />
<br />
A fentiek közül a felhasználónak csupán az API-val kell kommunikálnia, akár a Horizon felületén, akár a CLI-ből szeretné létrehozni és managelni a LoadBalancer-t.<br />
<br />
'''Segédlet a létrehozáshoz példákkal illusztrálva:'''<br />
* Példa [[Cloud for Education/LBaaS gui|GUI]] igénybevételével<br />
* Példa [[Cloud for Education/LBaaS cli|CLI]] használatával<br />
<br />
'''Működés/Hibatűrés:'''<br />
<br />
A rendszer alapvető elosztottsága miatt nincs központi "leállás", minden egyes terheléselosztó pont annyira stabil, mint a C4E-ben futó többi virtuális gép. Alapvetően egy adott projekt egy adott terheléselosztójához tartozó amphora image hibája (virtuális gép leáll, lefagy) esetén a Health Managerre hagyatkozunk. <br />
<br />
A gép újraindításán túl akár egy '''új amphorae virtuális gép'''et is létre tud hozni a háttérben, és a már '''meglévő konfiguráció'''t alkalmazni rá.<br />
Arra azonban figyelni kell, hogy egy újraindítás, vagy egy új image létrehozása néhány perces kiesést jelenthet az adott projekthez tartozó terheléselosztó szolgáltatásban, de ilyenre alapvetően nem számítunk.<br />
<br />
Fontos, hogy egy korábbi tervezett leállításkor (ahol kézzel többször leállítottuk a már meglévő terheléselosztókat) a Health Manager sajnálatos módon nem tudta a többszöri leállítást és újraindítást (egymásra futva) megfelelően kezelni. <br />
Itt a karbantartás végén adminisztrátori beavatkozásra volt szükség, kézzel kellett failovert kérni minden terheléselosztóra.<br />
Erre a forgatókönyvre se számítunk üzemszerű használat mellett (maximum egy esetleges tervezett leálláskor, nem várt komolyabb hiba javításakor) de erre minden esetben nagy figyelmet fordítanak a karbantartást/javítást végző kollégák.<br />
<br />
'''Amennyiben beragadt/hibás terheléselosztót észlelnek, kérjük forduljanak ügyfélszolgálatunkhoz!'''<br />
<br />
'''Terheléselosztó törlése:'''<br />
<br />
Sajnálatos módon előfordulhat, hogy egy-egy terheléselosztó nem törölhető és hibaüzenet figyelmeztet erre. ('''CLI-n van rá force opció!''')<br />
<br />
Ennek a megoldása, hogy "szét kell szedni" a terheléselosztót, amelyhez a következő lépésekre van szükség:<br />
* törölni kell a pool-t, a listener-t, a monitort<br />
* majd végül magát a terheléselosztót<br />
<br />
====FWaaS====<br />
<br />
Az FWaaS funkció jelenleg nem elérhető.<br />
<br />
===Lemez típusok===<br />
<br />
{| class="wikitable" border="1" <br />
|- <br />
| Lemez típus<br />
| Technológia<br />
| Javasolt használat<br />
|- <br />
| SDS-Nearline<br />
| Skálázódó szoftveres tároló<br />
| Tömeges adattárolás, alacsony kihasználtságú VM lemez.<br />
|- <br />
|}<br />
<br />
==Virtuális gép indítása==<br />
Az előfeltételek teljesítése után elkészíthető a kívánt virtuális gép. Ehhez válasszuk a bal oldali menüből a „Compute”, azon belül pedig az „Instances” lehetőséget, majd a jobb felső sarokban válasszuk a „Launch Instance” gombot és az alábbi képeken látható módon készítsük el a gépet.<br />
<br />
===VM elenevezése===<br />
Első lépésben válasszunk egy nevet az újonnan létrehozni kívánt virtuális gépnek, majd adjuk ezt meg az "Instance Name" mező értékének.<br />
<br />
[[File:Li1.png|726px|VM Name]]<br />
<br />
===Image választás===<br />
A "Next" gombra kattintva, a VM forrásával kapcsolatos beállításokat szükséges elvégezni. A következő ábrán látható módon válasszunk ki a rendelkezésre álló lemezképfájlok közül egyet, valamint állítsuk be a kívánt lemez méretet.<br />
<br />
[[File:Li2.png|726px|VM Source]]<br />
<br />
===Flavor választás===<br />
<br />
[[File:Li3.png|726px|VM Select flavor]]<br />
<br />
===Hálózat kiválasztása===<br />
<br />
Következő lépésként meg kell adni a használni kívánt hálózatot. Ez legyen a példában létrehozott „Internal” hálózat.<br />
<br />
[[File:Li4.png|726px|VM Select network]]<br />
<br />
===Security group társítása===<br />
Az ábrán látható módon megadhatjuk, hogy mely Security Group(-ok) vonatkozzon a virtuális gépünkre.<br />
<br />
[[File:Li5.png|726px|VM Select sec_grp]]<br />
<br />
===Publikus kulcs társítása===<br />
Az ábrán látható módon a VM létrehozásakor kiválaszthatjuk az előzőleg feltöltött publikus kulcsunkat, vagy feltölthetünk egy teljesen újat is a létrehozás közben.<br />
<br />
[[File:Li6.png|726px|VM Select pub_key]]<br />
<br />
A „Launch” lehetőséget választva elkezdhetjük a virtuális gép létrehozását. A folyamat elkészültekor az „Instances” fül alatt láthatjuk az eddig létrehozott virtuális gépeinket és azok állapotát.<br />
<br />
[[File:Li7.png|726px|Létrehozott VM lista]]<br />
<br />
A folyamat elvégzése után elkészült az első virtuális gép, amelynek elérése több féle módon történhet.<br />
* A virtuális géphez hozzárendelünk egy publikus IP címet, majd a háttérben a neutron 1:1 NAT alkalmazásával ennek megfelelően konfigurálja a virtuális routert, és így távolról is bejelentkezhetünk rá, Linux disztribúció esetén például SSH, Windows esetén RDP szolgáltatás segítségével.<br />
<br />
* A weboldalba ágyazott VNC konzol segítségével vezérelhetjük gépünket, azonban egyes előre gyártott lemezképfájlból készített virtuális gépek nem támogatják csak a kulcsos autentikációt, így sajnos ezeknél a gépeknél ez a módszer nem elérhető.<br />
<br />
====Floating IP hozzárendelése====<br />
Az előzőekben létrehozott Ubuntu operációs rendszerrel ellátott virtuális gépünk a második lehetőséget nem támogatja, így szükségünk van a gép eléréséhez egy publikus IP címre, amelynek allokálása és géphez rendelése a következőképpen történik.<br />
<br />
Első lépésben válasszuk a „Project” alatt található „Network” lehetőséget, majd azon belül a „Floating IPs” menüpontot és kattintsunk a jobb felső sarokban lévő „Allocate IP To Project” gombra. A megjelenő ablakban ki kell választani a kívánt Smart hálózatot, amelyből a publikus IP címet szeretnénk használni (Ez nyilván az a hálózat, amelyiket a router átjárójának is választottunk), majd az „Allocate IP” lehetőséget kell választani.<br />
<br />
[[File:Allocate_ip1.png|726px|Floating IP igénylése]]<br />
<br />
<br />
A következő ábrán látható a Projekthez allokált IP címek listája, amelyek következő lépésként hozzárendelhetők 1-1 virtuális géphez. Ehhez válasszuk az ábrán látható IP cím mellett található „Associate” lehetőséget, majd válasszuk ki a listából azt a virtuális gépet, amelyiken az IP címet használni szeretnénk.<br />
<br />
[[File:Allocate_ip2.png|726px|Rendelkezésre álló IP címek listája]]<br />
<br />
<br />
[[File:Allocate_ip3.png|726px|Floating IP géphez rendelése]]<br />
<br />
A sikeres hozzárendelés után a gépünk már rendelkezik publikus IP címmel, amelyen keresztül külső hálózatokból is elérhetjük a gépet, amennyiben ezt a Security Group-ban, vagy a Firewall alatt engedélyezzük.<br />
<br />
==Virtuális gépek kezelése==<br />
<br />
===Snapshot létrehozása/indítás snapshotból===<br />
<br />
További lehetőség a létrehozott virtuális géppel kapcsolatban, hogy bármikor készíthetünk róla egy úgynevezett pillanatképet, amelyből később létrehozhatunk egy másik virtuális gépet, folytatva ott a munkát, ahol a pillanatkép készült, a régi gépet pedig leállíthatjuk, vagy törölhetjük. Ehhez a már ismert „Compute” menüpont alatt válasszuk a „Volume” lehetőséget. A kilistázott Volume-ok között válasszuk ki a megfelelőt, majd az „Actions” szekcióban található legördülő menüből válasszuk a „Create Snapshot” lehetőséget. Az ábrán látható módon adjunk neki egy nevet, majd készítsük el a pillanatképet.<br />
<br />
[[File:Create_snapshot1.png|723px|Snapshot létrehozás]]<br />
<br />
<br />
Az elkészült pillanatképből készítsünk egy újabb virtuális gépet, a már ismert módon, azzal a különbséggel, hogy a gépet ezúttal ne image-ből, hanem snapshot-ból indítsuk.<br />
<br />
[[File:Create_snapshot2.png|724px|Snapshot létrehozás]]<br />
<br />
==="Extrém" diszkigény kielégítése===<br />
<br />
Előfordul, hogy valamilyen projekthez nagyobb (TB-os nagyságrendű) területre van szükség, mint amit a kvóta megenged. Habár a kvóta növelésével könnyen orvosolhatnánk egyes felhasználók helyigényét, ezt sajnos <big>nem áll módunkban</big> megtenni, ugyanis azzal felborulna a kiosztott erőforrások közötti egyensúly (nem lenne terület, ahonnan bootoljanak az új gépek, a CPU/RAM pedig kihasználatlan maradna) valamint bizonyos szolgáltatások (jellemzően az adatbázis-szerverek) számára nem előnyös a CEPH alapú háttértár.<br />
<br />
A fenti probléma megoldására lehetőséget teremtettünk a Storage szolgáltatásunkban résztvevő egyik Eternus tárolóeszköz integrálására a C4E alá. Ez azt jelenti, hogy a C4E rendszerében konfigurálásra került egy "iSCSI1" és "iSCSI2" nevű hálózat, melynek használatával közvetlen Layer2 kapcsolattal éri el az Eternus egységet a felhasználó virtuális számítógépe, szemben a többi tárolónkkal, amihez a publikus hálózaton keresztül (route-olva) lehet hozzáférni.<br />
<br />
'''<big>FONTOS!''' Az "iSCSI1" és "iSCSI2" hálózat '''NEM nyújt publikus elérést''', azon keresztül '''csak az iSCSI targetek''' elérése lehetséges!</big><br />
<br />
<br />
'''<big>FONTOS! A fenti tároló nem önkiszolgáló! ''' A használathoz előbb '''[https://webform.niif.hu/content/storage-igenyles ''területigénylést kell benyújtani'']''', ahol be kell jelölni a ''' "A terület(ek)re a C4E szolgáltatás keretében használt virtuális gépe(i)mről kívánok csatlakozni!"''' opciót a második oldalon, majd a '''pozitív elbírálás után''' a megadott paraméterekkel lehet csatlakozni a tárolóhoz!</big><br />
<br />
<br />
<br />
==== Csatlakozás Linux alapú operációs rendszer alól ====<br />
<br />
<br />
===== Óvintézkedés! =====<br />
<br />
Sajnos az iSCSI jelenléte boot időben előfordul, hogy a virtuális gépet megállítja a boot során. Ez alapból nem lenne probléma, viszont a sablon image-ek alapértelmezetten egy read only konzolra küldik az emergency shell kimenetét, amin nem lehet módosításokat végezni. <br />
<br />
<big>'''FONTOS!''' Az esetleges konfigurációs hibákból adódó hibás virtuális gépek javításában '''NEM tudunk''' segíteni, az esetleges adatvesztésért felelősséget nem vállalunk!</big><br />
<br />
A fentiekből kifolyólag célszerű átállítani az extlinux rendszerbetöltőt az iSCSI-t használó gépeken az alábbiak szerint:<br />
<br />
* Az eredeti állomány:<br />
<pre><br />
debian@iscsiteszt-5:~$ cat /extlinux.conf<br />
default linux<br />
timeout 1<br />
label linux<br />
kernel boot/vmlinuz-3.16.0-4-amd64<br />
append initrd=boot/initrd.img-3.16.0-4-amd64 root=/dev/vda1 console=tty0 console=ttyS0,115200 ro quiet<br />
</pre><br />
<br />
* Átírás után (az utolsó sor végén '''helyet cserél''' a két console paraméter, és a '''tty0-ból tty1 lesz'''):<br />
<br />
<pre><br />
debian@iscsiteszt-5:~$ cat /extlinux.conf<br />
default linux<br />
timeout 1<br />
label linux<br />
kernel boot/vmlinuz-3.16.0-4-amd64<br />
append initrd=boot/initrd.img-3.16.0-4-amd64 root=/dev/vda1 console=ttyS0,115200 console=tty1 ro quiet<br />
</pre><br />
<br />
Ezen módosítás azonban több ismert hátránnyal jár:<br />
<br />
* Nem lesz elérhető a boot során keletkező read-only konzolkimenet (bootidőben persze látszik a VNC konzolon)<br />
* Firefox és Chrome újabb verziói alatt problémák lehetnek a VNC konzol elérésével/válaszidejével (ez sajnos egy fejlesztők által ismert, de még nem javított hiba)<br />
<br />
===== Előkészületek =====<br />
* Konfigurálni kell az interfészeket<br />
Ez az Debian base image-nél alapból konfigurálva van az alábbi módon:<br />
<pre><br />
root@iscsiteszt:/home/debian# cat /etc/network/interfaces <br />
# This file describes the network interfaces available on your system <br />
# and how to activate them. For more information, see interfaces(5). <br />
# The loopback network interface auto lo iface lo inet loopback <br />
<br />
# The normal eth0 <br />
auto eth0 <br />
iface eth0 inet dhcp <br />
<br />
# Maybe the VM has 2 NICs? <br />
allow-hotplug eth1 <br />
iface eth1 inet dhcp <br />
<br />
# Maybe the VM has 3 NICs? <br />
allow-hotplug eth2 <br />
iface eth2 inet dhcp<br />
</pre><br />
<br />
Ennek hatására az eth1 és eth2 interfész címei:<br />
<pre><br />
root@iscsiteszt:/home/debian# ip a<br />
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default<br />
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br />
inet 127.0.0.1/8 scope host lo<br />
valid_lft forever preferred_lft forever<br />
inet6 ::1/128 scope host<br />
valid_lft forever preferred_lft forever<br />
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000<br />
link/ether fa:16:3e:f0:84:6d brd ff:ff:ff:ff:ff:ff<br />
inet 193.224.22.182/24 brd 193.224.22.255 scope global eth0<br />
valid_lft forever preferred_lft forever<br />
inet6 fe80::f816:3eff:fef0:846d/64 scope link<br />
valid_lft forever preferred_lft forever<br />
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000<br />
link/ether fa:16:3e:17:05:1e brd ff:ff:ff:ff:ff:ff<br />
inet 192.168.168.53/23 brd 192.168.169.255 scope global eth1<br />
valid_lft forever preferred_lft forever<br />
inet6 fe80::f816:3eff:fe17:51e/64 scope link<br />
valid_lft forever preferred_lft forever<br />
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000<br />
link/ether fa:16:3e:f1:ba:0a brd ff:ff:ff:ff:ff:ff<br />
inet 192.168.170.51/23 brd 192.168.171.255 scope global eth2<br />
valid_lft forever preferred_lft forever<br />
inet6 fe80::f816:3eff:fef1:ba0a/64 scope link<br />
valid_lft forever preferred_lft forever<br />
</pre><br />
<br />
'''<big>FONTOS!''' Ezen interfészek akár statikus címhasználatra is konfigurálhatók, de a C4E biztonsági megoldásai miatt kizárólag '''a C4E felületén megjelenő IP címek''' esetén lesz képes csomagot forgalmazni a virtuális gép a tároló felé! </big><br />
<br />
* Csomagtelepítés (Debian alapú rendszeren)<br />
<pre>apt-get install open-iscsi multipath-tools</pre><br />
<br />
* Multipath konfigurálása (Debian alatt létre kell hozni a fájlt)<br />
<pre><br />
root@iscsiteszt:/home/debian# cat /etc/multipath.conf<br />
devices {<br />
device {<br />
vendor "FUJITSU"<br />
product "ETERNUS_DXL"<br />
prio alua<br />
path_grouping_policy group_by_prio<br />
no_path_retry queue<br />
failback immediate<br />
}<br />
}<br />
</pre><br />
<br />
* Multipath daemon újraindítása<br />
<pre>root@iscsiteszt:/home/debian# service multipath-tools restart</pre><br />
<br />
* iSCSI Initiator name konfigurálása (ezt meg kellett adni az igényléskor... természetesen most lehet módosítani az állományt, később viszont fontos az ott olvasható figyelmeztetés)<br />
<pre><br />
root@iscsiteszt:/home/debian# cat /etc/iscsi/initiatorname.iscsi<br />
## DO NOT EDIT OR REMOVE THIS FILE!<br />
## If you remove this file, the iSCSI daemon will not start.<br />
## If you change the InitiatorName, existing access control lists<br />
## may reject this initiator. The InitiatorName must be unique<br />
## for each iSCSI initiator. Do NOT duplicate iSCSI InitiatorNames.<br />
InitiatorName=iqn.2017-03.hu.niif.test:c4e<br />
</pre><br />
<br />
* iSCSI daemon újraindítása<br />
<pre>root@iscsiteszt:/home/debian# service open-iscsi restart</pre><br />
<br />
<br />
===== Targetek konfigurálása =====<br />
<br />
====== The easy way ======<br />
Egy letölthető bash szkript, ami megcsinál mindent: '''[[:File:Iscsi-site-admin-c4e.sh|iscsi-site-admin-c4e.sh]]'''<br />
<br />
====== The hard way ======<br />
<br />
A következő lépés az iSCSI targetekhez történő csatlakozás. (A leírásban az username és password paraméterek a felhasználót (initiatort, azaz a virtuális gépet) azonosító egyedi paraméterek, míg az username_in és password_in a Mutual CHAP (bidirectional) azonosításhoz használható (target-et, azaz magát az Eternus tárolót azonosító) paraméterek. (Az username_in, azaz a <target CHAP felhasználó> tipikusan "eternus"...)<br />
<br />
Az alábbi parancsköteg jelszavait kell megfelelően lecserélni, majd a konzolra bemásolva csatlakozni a tárolóhoz:<br />
<br />
<big>--- Target 001 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o new<br />
iscsiadm -m node -p 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.168.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca0-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
<big>--- Target 011 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o new<br />
iscsiadm -m node -p 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.170.1 -T iqn.2000-01.hu.niif.c4e:eternus7:cm0-ca1-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
<big>--- Target 101 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o new<br />
iscsiadm -m node -p 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.168.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca0-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
<big>--- Target 111 ---</big><br />
<pre><br />
iscsiadm -m node -p 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o new<br />
iscsiadm -m node -p 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.username -v <initiator CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.password -v <initiator CHAP jelszó><br />
iscsiadm -m node -p 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.username_in -v <target CHAP felhasználó><br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -o update -n node.session.auth.password_in -v <target CHAP jelszó><br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -l<br />
<br />
iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 --op update -n node.startup -v automatic<br />
</pre><br />
<br />
Az egyes csoportok beillesztése után (konkrétan a csoportok utolsó előtti parancsa miatt) minden targetre be kell jelentkezzen, és az alábbihoz hasonló üzeneteknek kell megjelenni:<br />
<pre><br />
root@iscsiteszt-5:/home/debian# iscsiadm -m node -P 192.168.170.2 -T iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1 -l<br />
Logging in to [iface: default, target: iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1, portal: 192.168.170.2,3260] (multiple)<br />
Login to [iface: default, target: iqn.2000-01.hu.niif.c4e:eternus7:cm1-ca1-host1, portal: 192.168.170.2,3260] successful.<br />
</pre><br />
<br />
Miután mind a négy targetre sikerült a bejelentkezés, már csak a multipath ellenőrzése van hátra, ahol a lentihez hasonló kimenetnek kell megjelenjen:<br />
<pre><br />
root@iscsiteszt-5:/home/debian# multipath -ll<br />
3600000e00d280000002825d2001a0000 dm-0 FUJITSU,ETERNUS_DXL<br />
size=200G features='1 queue_if_no_path' hwhandler='0' wp=rw<br />
|-+- policy='service-time 0' prio=50 status=active<br />
| |- 3:0:0:0 sdd 8:48 active ready running<br />
| `- 5:0:0:0 sdb 8:16 active ready running<br />
`-+- policy='service-time 0' prio=10 status=enabled<br />
|- 2:0:0:0 sda 8:0 active ready running<br />
`- 4:0:0:0 sdc 8:32 active ready running<br />
</pre><br />
<br />
Itt jól látszik, hogy mind a négy útvonal ép, és az első kettő az aktív, a másik kettő pedig bármikor rendelkezésre áll. Amennyiben a path-ok nem jelennének meg, az alábbi parancs segítségével újratölthető a devmap:<br />
multipath -r<br />
<br />
===== Szépészeti beavatkozások =====<br />
<br />
Az iSCSI un. WWID-ket használ (ami a <code>multipath -ll</code> kimenetében jól látszik) az egyes területek azonosítására, ami sajnos olvashatatlan, és körülményes tud lenni. Az egyszerűbb megnevezések érdekében lehetőség van a korábban szerkesztett <code>multipath.conf</code> állomány bővítésére az alábbi módon (a teljes állomány látható, a fent található Eternus releváns konfigurációval együtt):<br />
<br />
<pre><br />
root@iscsiteszt-5:/home/debian# cat /etc/multipath.conf<br />
devices {<br />
device {<br />
vendor "FUJITSU"<br />
product "ETERNUS_DXL"<br />
prio alua<br />
path_grouping_policy group_by_prio<br />
no_path_retry queue<br />
failback immediate<br />
}<br />
}<br />
multipaths {<br />
multipath {<br />
wwid 3600000e00d280000002825d2001a0000<br />
alias terulet1<br />
}<br />
multipath {<br />
wwid 3600000e00d280000002825d2001b0000<br />
alias terulet2<br />
}<br />
}<br />
<br />
</pre><br />
<br />
Ha kész az átnevezés (és persze nincsenek a területek csatolva sehol), újra kell olvastatni a devmapot (esetleg újra kell indítani a szervert):<br />
multipath -r<br />
<br />
<pre><br />
root@iscsiteszt-5:/home/debian# multipath -r<br />
Mar 23 11:13:37 | 3600000e00d280000002825d2001a0000: rename 3600000e00d280000002825d2001a0000 to terulet1 <br />
rename: terulet1 (3600000e00d280000002825d2001a0000) undef FUJITSU,ETERNUS_DXL<br />
size=200G features='1 queue_if_no_path' hwhandler='0' wp=undef<br />
|-+- policy='service-time 0' prio=50 status=undef<br />
| |- 3:0:0:0 sdd 8:48 active ready running<br />
| `- 5:0:0:0 sdb 8:16 active ready running<br />
`-+- policy='service-time 0' prio=10 status=undef<br />
|- 4:0:0:0 sdc 8:32 active ready running<br />
`- 6:0:0:0 sda 8:0 active ready running<br />
Mar 23 11:13:37 | 3600000e00d280000002825d2001b0000: rename 3600000e00d280000002825d2001b0000 to terulet2<br />
rename: terulet2 (3600000e00d280000002825d2001b0000) undef FUJITSU,ETERNUS_DXL<br />
size=200G features='1 queue_if_no_path' hwhandler='0' wp=undef<br />
|-+- policy='service-time 0' prio=50 status=undef<br />
| |- 4:0:0:1 sdg 8:96 active ready running<br />
| `- 6:0:0:1 sdf 8:80 active ready running<br />
`-+- policy='service-time 0' prio=10 status=undef<br />
|- 3:0:0:1 sdh 8:112 active ready running<br />
`- 5:0:0:1 sde 8:64 active ready running<br />
</pre><br />
<br />
==== Csatlakozás Windows alapú operációs rendszer alól (hamarosan) ====<br />
<br />
===== Előkészületek =====<br />
<br />
A gépet természetesen hozzá kell adni a megfelelő "Eternus7 - iSCSI1" és "Eternus7 - iSCSI2" hálózatokhoz.<br />
<br />
Sajnos a Windows Multipath rendszere nem képes korrektül kezelni az Eternus tárolókat, ezért első lépésként fel kell telepíteni a Fujitsu Eternus MultiPath Drivert (EMPD)<br />
A cikk írásakor ez a V2.0L23-as (2016/12/21) verziója, amit az alábbi módon lehet letölteni:<br />
<br />
# http://www.fujitsu.com/fts/support/<br />
# táblázatban katt: Storage<br />
# "Ask Fujitsu! We are here to help" ablakban a "Please select the product group"-nál "ETERNUS DX" kiválasztása<br />
# "Please select the product family"-nél "ETERNUS DX200 S3" kiválasztása<br />
# A megjelenő oldalon a megfelelő Windows verzió kiválasztása<br />
# Driver fül alatt "Device Driver"-t nyissuk ki egy kattintással<br />
# legfrissebb elérhető driver ("EMPD - Multipath Driver for Windows ...") letöltése "Direct download"-ra kattintással<br />
#*("I have read and agree to the terms and conditions." checkbox bepipálásával elfogadva a felhasználási feltételeket)<br />
# Az állomány egy exe, ami kicsomagol egy mappát, amiben lesz egy iso állomány.<br />
# Az iso-t csatolva az English/setup.exe lesz az, amit fel kell telepíteni a többutas tároló megfelelő működéséhez.<br />
<br />
===== Initiator konfigurálása =====<br />
<br />
# A "Felügyeleti eszközök" közül az "iSCSI-kezdeményező" / "iSCSI-Initiator" -t kell választani<br />
# Igennel kell válaszolni, hogy automatikusan elinduljon az iSCSI a továbbiakban<br />
# A megnyitott ablakban a "Konfiguráció" fül alatt a "Kezdeményező neve:" részhez be kell állítani az IQN-t, amit a storage igénylésekor megadtunk (ehhez az alatta lévő módosítás gombra kell kattintani)<br />
<br />
== C4E (Openstack) Publikus API ==<br />
<br />
<big> '''FONTOS!''' </big> Az API külvilági elérését csomagszűrő tűzfal védi, és kizárólag az általunk ismert magyarországi IP(v4/v6) címekről érhető el.<br />
Akkor, ha timeout hiba merülne fel, a cloud@niif.hu címen kell jelezni az elérés igényét, és a kérdéses IP címet.<br />
Amennyiben az IP valóban hazai cím, és még nem szerepel a tűzfalban, rövid távon permanensen az egész alhálózat számára elérhetővé tesszük az API-t.<br />
<br />
<big> '''FONTOS!''' </big> Minden itt leírt dokumentáció a C4E openstack jelenlegi (Mitaka) verziójához készült!<br />
<br />
<br />
=== Kezdő lépések: jelszó szerzése ===<br />
<br />
Kialakításra került a C4E publikus API elérése. Ahhoz, hogy a felhasználók ezt igénybe tudják venni, az alábbiak szükségesek:<br />
<br />
* Első lépésben küldeni kell egy levelet az alábbiakkal a '''cloud@niif.hu''' címre:<br />
** C4E projekt(ek) neve<br />
** C4E usernév (ez szinte biztosan az eppn)<br />
** Privát kezelésben lévő belföldi mobiltelefon száma, ahova SMS formájában küldjük el az eléréshez szükséges jelszót<br />
<br />
A levélnek arról az e-mail címről kell származnia, ami az adott intézmény IdP-je adott át a C4E-nek az eppn mellett!<br />
<br />
=== Kezdő lépések: környezet kialakítása (Debian/Ubuntu) ===<br />
<br />
Első körben hozzá kell adni a repository-t az apt konfigurációjához, frissíteni a csomaglistát, majd telepíteni a szükséges csomagokat:<br />
<br />
Debian:<br />
<pre><br />
echo "deb http://http.debian.net/debian jessie-backports main" >>/etc/apt/sources.list.d/openstack.list<br />
apt-get update<br />
apt-get install python-openstackclient<br />
</pre><br />
<br />
Ubuntu (A 16.04-es verziótól Mitaka verziót tölt le az eredeti konfigurációval):<br />
<pre><br />
apt-get update<br />
apt-get install python-openstackclient<br />
</pre><br />
<br />
Telepítés SNAP-ből:<br />
<pre><br />
sudo snap install openstackclients --classic<br />
</pre><br />
<br />
Második körben be kell szerezni a szükséges <big>'''openrc'''</big> file-t az api eléréséhez:<br />
* Be kell jelentkezni a C4E-be (IdP-n keresztül természetesen)<br />
* Ki kell választani az elérni kívánt projektet, ha több lenne (az rc file-ok projektfüggők!)<br />
* Az <big>''' Access & Security -> API Access '''</big> oldalon a <big>''' Download OpenStack RC File v3 '''</big> opciót választani<br />
* Az rc file-t a kezelő gépre juttatni (ha nem ott lenne)<br />
<br />
A harmadik lépés, hogy betöltjük az rc file-t, majd a jelszó beírása után elérhetővé válik a C4E API<br />
<br />
<pre><br />
debian@apitest:~$ source cloudadmin_v3.rc<br />
Please enter your OpenStack Password:<br />
<br />
debian@apitest:~$ openstack server list<br />
+--------------------------------------+-----------------+--------+----------------------------------------------------------------------------------+<br />
| ID | Name | Status | Networks |<br />
+--------------------------------------+-----------------+--------+----------------------------------------------------------------------------------+<br />
| 3ac59936-cdae-4822-9855-60fabeff135f | apitest | ACTIVE | Flat1=2001:738:0:519:f816:3eff:fedd:d5e8, 193.224.22.225 ||<br />
+--------------------------------------+-----------------+--------+----------------------------------------------------------------------------------+<br />
debian@apitest:~$<br />
</pre><br />
<br />
=== API használata ===<br />
<br />
Az API használatával kapcsolatban a mindenkori Openstack dokumentáció a mérvadó: https://developer.openstack.org/api-guide/quick-start/api-quick-start.html#<br />
<br />
Ugyanezen oldalról egy (hálózat/ssh kulcs nélküli!) instance elindításának kezdő lépései: https://developer.openstack.org/api-guide/quick-start/api-quick-start.html#launch-an-instance<br />
<br />
Az openstack parancs elérhető funkciói (ebből természetesen van, ami a felhasználó számára nem, illetve olyan is, ami nincs implementálva!):<br />
<br />
Részlet az <big>'''openstack --help'''</big> kiementéből:<br />
<br />
<pre><br />
Commands:<br />
access token create Create access token command<br />
aggregate add host Add host to aggregate<br />
aggregate create Create a new aggregate<br />
aggregate delete Delete an existing aggregate<br />
aggregate list List all aggregates<br />
aggregate remove host Remove host from aggregate<br />
aggregate set Set aggregate properties<br />
aggregate show Show a specific aggregate<br />
backup create Create backup command<br />
backup delete Delete backup command<br />
backup list List backup command<br />
backup restore Restore backup command<br />
backup show Show backup command<br />
complete print bash completion command<br />
compute agent create Create compute agent command<br />
compute agent delete Delete compute agent command<br />
compute agent list List compute agent command<br />
compute agent set Set compute agent command<br />
compute service list List service command<br />
compute service set Set service command<br />
console log show Show console-log command<br />
console url show Show console-url command<br />
consumer create Create consumer command<br />
consumer delete Delete consumer command<br />
consumer list List consumer command<br />
consumer set Set consumer command<br />
consumer show Show consumer command<br />
container list List containers<br />
container show Show container information<br />
credential create Create credential command<br />
credential delete Delete credential command<br />
credential list List credential command<br />
credential set Set credential command<br />
credential show Show credential command<br />
domain create Create domain command<br />
domain delete Delete domain command<br />
domain list List domain command<br />
domain set Set domain command<br />
domain show Show domain command<br />
endpoint create Create endpoint command<br />
endpoint delete Delete endpoint command<br />
endpoint list List endpoint command<br />
endpoint set Set endpoint command<br />
endpoint show Show endpoint command<br />
extension list List extension command<br />
flavor create Create flavor command<br />
flavor delete Delete flavor command<br />
flavor list List flavor command<br />
flavor show Show flavor command<br />
group add user Add user to group<br />
group contains user Checks that user is in a specific group<br />
group create Create group command<br />
group delete Delete group command<br />
group list List groups<br />
group remove user Remove user to group<br />
group set Set group command<br />
group show Show group command<br />
help print detailed help for another command<br />
host list List host command<br />
host show Show host command<br />
hypervisor list List hypervisor command<br />
hypervisor show Show hypervisor command<br />
identity provider create Create identity_provider command<br />
identity provider delete Delete identity provider<br />
identity provider list List identity providers<br />
identity provider set Set identity provider<br />
identity provider show Show identity provider<br />
image create Create/upload an image<br />
image delete Delete an image<br />
image list List available images<br />
image save Save an image locally<br />
image set Change image properties<br />
image show Show image details<br />
ip fixed add Add fixed-ip command<br />
ip fixed remove Remove fixed-ip command<br />
ip floating add Add floating-ip command<br />
ip floating create Create floating-ip command<br />
ip floating delete Delete floating-ip command<br />
ip floating list List floating-ip command<br />
ip floating pool list List floating-ip-pool command<br />
ip floating remove Remove floating-ip command<br />
keypair create Create keypair command<br />
keypair delete Delete keypair command<br />
keypair list List keypair command<br />
keypair show Show keypair command<br />
limits show Show compute and volume limits<br />
module list List module versions<br />
object list List objects<br />
object show Show object information<br />
policy create Create policy command<br />
policy delete Delete policy command<br />
policy list List policy command<br />
policy set Set policy command<br />
policy show Show policy command<br />
project create Create new project<br />
project delete Delete project<br />
project list List projects<br />
project set Set project properties<br />
project show Show project command<br />
project usage list List resource usage per project.<br />
quota set Set quotas for project or class<br />
quota show Show quotas for project or class<br />
request token authorize Authorize request token command<br />
request token create Create request token command<br />
role add Adds a role to a user or group on a domain or project<br />
role assignment list Lists role assignments according to the given filters<br />
role create Create new role<br />
role delete Delete existing role<br />
role list List roles<br />
role remove Remove role command<br />
role set Set role command<br />
role show Show single role<br />
security group create Create a new security group<br />
security group delete Delete a security group<br />
security group list List all security groups<br />
security group rule create Create a new security group rule<br />
security group rule delete Delete a security group rule<br />
security group rule list List all security group rules<br />
security group set Set security group properties<br />
security group show Show a specific security group<br />
server add security group Add security group to server<br />
server add volume Add volume to server<br />
server create Create a new server<br />
server delete Delete server command<br />
server image create Create a new disk image from a running server<br />
server list List servers<br />
server lock Lock server<br />
server migrate Migrate server to different host<br />
server pause Pause server<br />
server reboot Perform a hard or soft server reboot<br />
server rebuild Rebuild server<br />
server remove security group Remove security group from server<br />
server remove volume Remove volume from server<br />
server rescue Put server in rescue mode<br />
server resize Convert server to a new flavor<br />
server resume Resume server<br />
server set Set server properties<br />
server show Show server details<br />
server ssh Ssh to server<br />
server suspend Suspend server<br />
server unlock Unlock server<br />
server unpause Unpause server<br />
server unrescue Restore server from rescue mode<br />
server unset Unset server properties<br />
service create Create new service<br />
service delete Delete service<br />
service list List services<br />
service set Set service properties<br />
service show Show service details<br />
snapshot create Create snapshot command<br />
snapshot delete Delete snapshot command<br />
snapshot list List snapshot command<br />
snapshot set Set snapshot command<br />
snapshot show Show snapshot command<br />
token issue Issue token command<br />
user create Create new user<br />
user delete Delete user<br />
user list List users<br />
user set Set user properties<br />
user show Show user details<br />
volume create Create new volume<br />
volume delete Delete volume<br />
volume list List volumes<br />
volume set Set volume properties<br />
volume show Show specific volume<br />
volume type create Create new volume type<br />
volume type delete Delete volume type<br />
volume type list List volume types<br />
volume type set Set volume type property<br />
volume type unset Unset volume type property<br />
volume unset Unset volume properties<br />
</pre><br />
<br />
Az egyes parancsok részletes leírását így lehet elérni:<br />
<pre><br />
debian@apitest:~$ openstack help server list<br />
usage: openstack server list [-h] [-f {csv,table}] [-c COLUMN]<br />
[--max-width <integer>]<br />
[--quote {all,minimal,none,nonnumeric}]<br />
[--reservation-id <reservation-id>]<br />
[--ip <ip-address-regex>]<br />
[--ip6 <ip-address-regex>] [--name <name>]<br />
[--status <status>] [--flavor <flavor>]<br />
[--image <image>] [--host <hostname>]<br />
[--instance-name <server-name>] [--all-projects]<br />
[--long]<br />
<br />
List servers<br />
<br />
optional arguments:<br />
-h, --help show this help message and exit<br />
--reservation-id <reservation-id><br />
Only return instances that match the reservation<br />
--ip <ip-address-regex><br />
Regular expression to match IP addresses<br />
--ip6 <ip-address-regex><br />
Regular expression to match IPv6 addresses<br />
--name <name> Regular expression to match names<br />
--status <status> Search by server status<br />
--flavor <flavor> Search by flavor ID<br />
--image <image> Search by image ID<br />
--host <hostname> Search by hostname<br />
--instance-name <server-name><br />
Regular expression to match instance name (admin only)<br />
--all-projects Include all projects (admin only)<br />
--long List additional fields in output<br />
<br />
output formatters:<br />
output formatter options<br />
<br />
-f {csv,table}, --format {csv,table}<br />
the output format, defaults to table<br />
-c COLUMN, --column COLUMN<br />
specify the column(s) to include, can be repeated<br />
<br />
table formatter:<br />
--max-width <integer><br />
Maximum display width, 0 to disable<br />
<br />
CSV Formatter:<br />
--quote {all,minimal,none,nonnumeric}<br />
when to include quotes, defaults to nonnumeric<br />
<br />
debian@apitest:~$<br />
</pre><br />
<br />
Amennyiben valamilyen problémába merül fel, célszerű a parancsot -v (-vv -vvv) kapcsolóval futtatni, és egy esetleges hibabejelentésnél a kimenetet csatolni.<br />
<br />
==FAQ==<br />
<br />
===Nem sikerült az image létrehozása a webfelületen===<br />
Valószínűleg bejelölted a "Public" lehetőséget, amelyhez a felhasználóknak nincs jogosultságuk. Erre csak admin jogosultságú felhasználó képes.<br />
<br />
===Nem tudom, hogy mi az azonosító és jelszó a példányosított image-emhez.===<br />
Mert nem kötötted hozzá a publikus kulcsodat, amit előzőleg feltöltöttél az access & security key pairs fül alatt. Az SSH kulcsos azonosítással történik. A felhasználói nevek a [[C4E#Ig.C3.A9nyelhet.C5.91_virtu.C3.A1lis_er.C5.91forr.C3.A1s-csomagok_.28flavor.29|Flavors]] táblázatban vannak feltüntetve.<br />
<br />
=== Nem tudok belépni a gépre távolról ===<br />
Az alapértelmezett tűzfalszabályok nem engedélyezik a kívülről jövő kapcsolatokat. Konfigurációjuk leírása a [[#Security_group-ok|Security group-ok]] szakaszban található.<br />
<br />
=== Nem sikerült a csatlakozás a konzolra ===<br />
<br />
A hibaüzenet: ''Failed to connect to server (code: 1006)''.<br />
Ilyenkor az F5 gomb megnyomása segít.<br />
<br />
===Nem tudok a létrehozott VM konzolján gépelni===<br />
Ahhoz, hogy gépelni tudjunk, vagy grafikus felülettel rendelkező operációs rendszer esetén az egérrel dolgozni, a konzol melletti szürke területre kell kattintani és NEM a konzol ablakába.<br />
<br />
===Baj van a DNS-el, <code>resolv.conf</code>-fal, stb.===<br />
A C4E networking stackje több irányból konfigurálja egy-egy VM DNS beállításait.<br />
<br />
==== DHCP oldali beállítások ====<br />
Ahhoz, hogy a DHCP ne írja felül minduntalan a <code>resolv.conf</code> egyes sorait a következőt érdemes tenni:<br />
<br />
A <code>/etc/dhcp/dhclient.conf</code> állományt értelemszerűen bővíteni kell az alábbi(ak közül szükséges) sorokkal:<br />
<pre><br />
supersede domain-name "sajatdomain.hu";<br />
supersede domain-search "sajatdomain.hu";<br />
supersede domain-name-servers 8.8.8.8, 8.8.4.4;<br />
</pre><br />
<br />
==== Cloudinit oldali beállítások ====<br />
Minden C4E virtuális gépen megtalálható egy ún. "Cloudinit" szkriptrendszer, ami az egyes beállításokat (hostnév, diszknövelés, ssh kulcs, stb.) hivatott beállítani.<br />
Ahhoz, hogy a Cloudinit ne állítsa át a hostnevet, és a hosts állományt, az alábbi konfiguráció szükséges a <code>/etc/cloud/cloud.cfg</code> állományban:<br />
<pre><br />
# This will cause the set+update hostname module to not operate (if true)<br />
preserve_hostname: true<br />
<br />
manage_etc_hosts: false<br />
</pre><br />
<br />
<br />
===IPv6 címre van szükségem, a felület szerint kapnom kéne, de mégsem===<br />
Ennek oka, hogy az adott Security Group nem "engedi be" az SLAAC-hoz szükséges hirdetési információkat. A tűzfal alábbiak szerinti bővítése, és egy virtuális gép reboot megoldja a problémát:<br />
<br />
[[Fájl:ipv6_secgroup.png|665px|ICMPv6 Enable]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=AAI&diff=4495AAI2019-10-09T07:56:47Z<p>Molnarp(AT)niif.hu: /* Kiegészítő tudnivalók */</p>
<hr />
<div>=== Meghatározások ===<br />
<br />
* [[Föderáció]]<br />
* [[Pont-pont bizalmi kapcsolati modell]]<br />
* [[Metadata]]<br />
* [[Föderációs modellek]]<br />
* [[WAYF | Home Location Service]]<br />
* [[Shibboleth]]<br />
* [[AAIGettingStarted | Hogy kezdjem?]]<br />
<br />
===Föderációs alapinfrastruktúrák (IdP-k, SP-k)===<br />
Tapasztalatok alapján IdP esetén egyszerűsége miatt talán jobb választás a simpleSAMLphp, SP esetén Shibboleth ill. simpleSAMLphp egyaránt megfelelő választás /etc/ssl/certs/adminmail.sulinet.hu.crtmind beállítási, mind üzemeltetési szempontból.<br />
* Shibboleth IdP: [[Shib3IdpInstall|Telepítés, beállítás]], [[Shibboleth3 IdP|Egyéb leírások]], [[Shibboleth2 IdP|Shibboleth 2 IdP leírások]]<br />
* Shibboleth SP: [[ShibSP_QuickStart|Kezdőlépések]], [[Shibboleth2 SP|Egyéb leírások]]<br />
* simpleSAMLphp IdP és SP: [[SSP_QuickStart|Kezdőlépések]]<br />
* [[IdP_whichone|Melyik IdP-t válasszam?]]<br />
* Ha nem értek hozzá, jó választás lehet a [https://samlidp.io samlidp.io - SAML Identity Provider as a Service]<br />
<br />
===HREF/eduID föderációhoz kapcsolódó tudnivalók===<br />
* [[HREFContract]]: A föderációhoz kapcsolódó dokumentációk gyűjtőlapja<br />
* [[HREFAttributeSpec]]: A föderációban használható attribútumok specifikációja<br />
* [[HREFMetadataSpec]]: A föderációban használt metadata specifikációja<br />
* [[Resource_Registry]]: A föderáció adminisztrációs felületének leírása<br />
* [[JoiningEduGAIN]]: Tudnivalók az eduGAIN csatlakozással kapcsolatban<br />
* [[MDX]]: Igény szerinti metaadat-kiszolgálás<br />
* [[Sirtfi]]: Föderációs és föderációközi együttműködéshez kapcsolódó incidenskezelés keretei<br />
<br />
===További föderációs megoldások===<br />
* [[Shibboleth2 DiscoveryService]]: Shibboleth 2.0 SAML-kompatibilis Discovery Service<br />
* [[OpenSSO]]: Nehézsúlyú Java hozzáférés-szabályozást és federációt megvalósító rendszer<br />
* [[OpenID]]: Széles körben támogatott, de nem SAML-alapú federációt megvalósító rendszer<br />
* [[GoogleAuth]]: Google, mint [[OpenID]] szabványú IdP<br />
* [[mod_mellon]]: SP megoldás apache modulban. A SAML2 motort a [http://lasso.entrouvert.org Lasso] valósítja meg. [http://docs.feide.no/fs-0050]<br />
* [[oiosaml.java]]: Java SP megoldás, amit a Dán állam is használ. [http://www.softwareborsen.dk/projekter/softwarecenter/brugerstyring/oio-saml-java]<br />
* [[UApprove]]: Shibboleth 2.1.x IdP-hez illeszthető "consent-modul" beállításának leírása<br />
* [[Shibboleth troubleshooting]]: Shibboleth hibaelhárítás<br />
* [[Shibboleth Service Provider (SP) és Docker]]: Shibboleth és Docker összehangolása<br />
<br />
===Kiegészítő tudnivalók===<br />
* [[AAI_szolgáltatási_IP | Szolgáltatási IP tartományok ]]<br />
* [[Alkalmazások illesztése]]: Néhány alkalmazás Shibboleth-illesztésének leírása<br />
* [[Interoperabilitás mátrix]]: Shibboleth, OpenSSO, simpleSAMLphp együttműködési mátrix<br />
* [[Eszközök]]: Hasznos eszközök föderációk üzemeltetéséhez, használatához<br />
* [[Intézmény átnevezés]]: megfontolandó szempontok<br />
* [[FedCerts | Tanúsítványok a föderációban]]<br />
* [[HEXAATest | Test HEXAA (or any SAML AA) from command line]] <br />
* [[EduIDTest | Hogyan teszteljünk eduID IdP-t vagy SP-t?]]<br />
* [[Publikációk]]<br />
<br />
[[Kategória: Összefoglaló lapok]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=AAI_szolg%C3%A1ltat%C3%A1si_IP&diff=4494AAI szolgáltatási IP2019-10-09T07:55:59Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „= eduID szolgáltatási IP-k = {| class="wikitable alternance centre" |+ IP tartományok |- | 193.224.92.0/24 |- | 193.225.14.128/25 |- | 2001:738:0:431::/64 |}”</p>
<hr />
<div>= eduID szolgáltatási IP-k =<br />
<br />
{| class="wikitable alternance centre"<br />
|+ IP tartományok<br />
|-<br />
| 193.224.92.0/24<br />
|-<br />
| 193.225.14.128/25<br />
|-<br />
| 2001:738:0:431::/64<br />
|}</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=PWS_upgrade&diff=4421PWS upgrade2019-08-05T18:03:01Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Tisztelt Partnerünk!<br />
<br />
Webhosting szolgáltatásunk frissítésének befejező lépéseként 2019. augusztus 5-én 18 és 19 óra között átállítjuk kiszolgálóinkat a PHP 7.0 verzióját használó környezetre.<br />
Az átállással kapcsolatban korábban küldött tájékoztató leveleinket az alábbiakban olvashatják.<br />
<br />
Üdvözlettel:<br />
KIFÜ<br />
Webhosting<br />
<br />
# [[level0509|A 2019. május 9-én kiküldött tájékoztató levél]]<br />
# [[level0612|A 2019. június 12-én kiküldött tájékoztató levél]]<br />
<br />
''A 2019. augusztus 5-én 18 és 19 óra között tervezett karbantartást elhalasztottuk.''</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=AAI&diff=4400AAI2018-11-30T09:36:01Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>=== Meghatározások ===<br />
<br />
* [[Föderáció]]<br />
* [[Pont-pont bizalmi kapcsolati modell]]<br />
* [[Metadata]]<br />
* [[Föderációs modellek]]<br />
* [[WAYF | Home Location Service]]<br />
* [[Shibboleth]]<br />
* [[AAIGettingStarted | Hogy kezdjem?]]<br />
<br />
===Föderációs alapinfrastruktúrák (IdP-k, SP-k)===<br />
Tapasztalatok alapján IdP esetén egyszerűsége miatt talán jobb választás a simpleSAMLphp, SP esetén Shibboleth ill. simpleSAMLphp egyaránt megfelelő választás /etc/ssl/certs/adminmail.sulinet.hu.crtmind beállítási, mind üzemeltetési szempontból.<br />
* Shibboleth IdP: [[Shib3IdpInstall|Telepítés, beállítás]], [[Shibboleth3 IdP|Egyéb leírások]], [[Shibboleth2 IdP|Shibboleth 2 IdP leírások]]<br />
* Shibboleth SP: [[ShibSP_QuickStart|Kezdőlépések]], [[Shibboleth2 SP|Egyéb leírások]]<br />
* simpleSAMLphp IdP és SP: [[SSP_QuickStart|Kezdőlépések]]<br />
* [[IdP_whichone|Melyik IdP-t válasszam?]]<br />
* Ha nem értek hozzá, jó választás lehet a [https://samlidp.io samlidp.io - SAML Identity Provider as a Service]<br />
<br />
===HREF/eduID föderációhoz kapcsolódó tudnivalók===<br />
* [[HREFContract]]: A föderációhoz kapcsolódó dokumentációk gyűjtőlapja<br />
* [[HREFAttributeSpec]]: A föderációban használható attribútumok specifikációja<br />
* [[HREFMetadataSpec]]: A föderációban használt metadata specifikációja<br />
* [[Resource_Registry]]: A föderáció adminisztrációs felületének leírása<br />
* [[JoiningEduGAIN]]: Tudnivalók az eduGAIN csatlakozással kapcsolatban<br />
* [[MDX]]: Igény szerinti metaadat-kiszolgálás<br />
* [[Sirtfi]]: Föderációs és föderációközi együttműködéshez kapcsolódó incidenskezelés keretei<br />
<br />
===További föderációs megoldások===<br />
* [[Shibboleth2 DiscoveryService]]: Shibboleth 2.0 SAML-kompatibilis Discovery Service<br />
* [[OpenSSO]]: Nehézsúlyú Java hozzáférés-szabályozást és federációt megvalósító rendszer<br />
* [[OpenID]]: Széles körben támogatott, de nem SAML-alapú federációt megvalósító rendszer<br />
* [[GoogleAuth]]: Google, mint [[OpenID]] szabványú IdP<br />
* [[mod_mellon]]: SP megoldás apache modulban. A SAML2 motort a [http://lasso.entrouvert.org Lasso] valósítja meg. [http://docs.feide.no/fs-0050]<br />
* [[oiosaml.java]]: Java SP megoldás, amit a Dán állam is használ. [http://www.softwareborsen.dk/projekter/softwarecenter/brugerstyring/oio-saml-java]<br />
* [[UApprove]]: Shibboleth 2.1.x IdP-hez illeszthető "consent-modul" beállításának leírása<br />
* [[Shibboleth troubleshooting]]: Shibboleth hibaelhárítás<br />
* [[Shibboleth Service Provider (SP) és Docker]]: Shibboleth és Docker összehangolása<br />
<br />
===Kiegészítő tudnivalók===<br />
* [[Alkalmazások illesztése]]: Néhány alkalmazás Shibboleth-illesztésének leírása<br />
* [[Interoperabilitás mátrix]]: Shibboleth, OpenSSO, simpleSAMLphp együttműködési mátrix<br />
* [[Eszközök]]: Hasznos eszközök föderációk üzemeltetéséhez, használatához<br />
* [[Intézmény átnevezés]]: megfontolandó szempontok<br />
* [[FedCerts | Tanúsítványok a föderációban]]<br />
* [[HEXAATest | Test HEXAA (or any SAML AA) from command line]] <br />
* [[EduIDTest | Hogyan teszteljünk eduID IdP-t vagy SP-t?]]<br />
* [[Publikációk]]<br />
<br />
[[Kategória: Összefoglaló lapok]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=KIF%C3%9C_szolg%C3%A1ltat%C3%A1sok&diff=4383KIFÜ szolgáltatások2018-10-04T11:35:42Z<p>Molnarp(AT)niif.hu: Új design.</p>
<hr />
<div><div class="starter_top" style="display: flex; flex-flow: row wrap; justify-content: space-between; margin: 1em 0;"><br />
<div class="starter1" style="box-sizing: border-box; float: left; width: 32%; padding: 0; border: 1px solid #4277bc;"><br />
<div class="starter1b" style="font-size: 105%; padding: 0.3em; font-weight: bold; min-height: 2em; vertical-align: middle; background-color: #4277bc; color: white;">AAI</div><br />
<div class="starter1c" style="background: #ffffff; padding: 0.2em 0.4em;"><br />
<br />
* [[AAI]]: AAI-val &eacute;s az eduID f&ouml;der&aacute;ci&oacute;val kapcsolatos le&iacute;r&aacute;sok<br />
* [[EduID_Cloud365 | EduID Cloud 365]]: Office 365 el&eacute;r&eacute;se EduID seg&iacute;ts&eacute;g&eacute;vel</div><br />
</div><br />
<div class="starter1" style="padding: 0; border: 1px solid #4277bc; width: 33%;"><br />
<div class="starter1b" style="font-size: 105%; padding: 0.3em; font-weight: bold; min-height: 2em; vertical-align: middle; background-color: #4277bc; color: white;">Felhő szolg&aacute;ltat&aacute;sok</div><br />
<div class="starter1c" style="background: #ffffff; padding: 0.2em 0.4em;"><br />
<br />
* [[C4E|Cloud for Education (C4E)]]<br />
* [[NIIF_E-mail|E-mail kliensek be&aacute;ll&iacute;t&aacute;sai]]<br />
</div><br />
</div><br />
<br />
<div class="starter1" style="padding: 0; border: 1px solid #4277bc; width: 33%;"><br />
<div class="starter1b" style="font-size: 105%; padding: 0.3em; font-weight: bold; min-height: 2em; vertical-align: middle; background-color: #4277bc; color: white;">HPC</div><br />
<br />
* [[HPC|NIIF szupersz&aacute;m&iacute;t&oacute;g&eacute;pek]]<br />
<br />
<div class="starter1c" style="background: #ffffff; padding: 0.2em 0.4em;"></div><br />
</div><br />
</div><br />
<br />
<div class="starter_bot" style="display: flex; flex-flow: row wrap; justify-content: space-between; margin: 1em 0;"><br />
<div class="starter1" style="box-sizing: border-box; float: left; width: 32%; padding: 0; border: 1px solid #4277bc;"><br />
<div class="starter1b" style="font-size: 105%; padding: 0.3em; font-weight: bold; min-height: 2em; vertical-align: middle; background-color: #4277bc; color: white;">Multimédia</div><br />
<div class="starter1c" style="background: #ffffff; padding: 0.2em 0.4em;"><br />
<br />
* [[VVC]]: Voice Video Collaboration<br />
</div><br />
</div><br />
<br />
<div class="starter1" style="box-sizing: border-box; float: left; width: 33%; padding: 0; border: 1px solid #4277bc;"><br />
<div class="starter1b" style="font-size: 105%; padding: 0.3em; font-weight: bold; min-height: 2em; vertical-align: middle; background-color: #4277bc; color: white;">Diákháló</div><br />
<div class="starter1c" style="background: #ffffff; padding: 0.2em 0.4em;"><br />
<br />
* [[SulinetDashboard | SulinetAdmin Dashboard]]: Sulinet infrastrukt&uacute;ra szolg&aacute;ltat&aacute;sokkal kapcsolatos integr&aacute;lt adminisztr&aacute;ci&oacute;s rendszer<br />
* [[SRM | Sulinet Rendszergazda Menedzser]]: Iskol&aacute;k rendszergazd&aacute;inak kezel&eacute;se<br />
* [[Sulinet Eduroam | Int&eacute;zm&eacute;nyi &uuml;zemeltet&eacute;sű Sulinet Eduroam AP-k konfigur&aacute;ci&oacute;ja]]<br />
</div><br />
<br />
</div><br />
<div class="starter1" style="box-sizing: border-box; float: left; width: 33%; padding: 0; border: 1px solid #4277bc;"><br />
<div class="starter1b" style="font-size: 105%; padding: 0.3em; font-weight: bold; min-height: 2em; vertical-align: middle; background-color: #4277bc; color: white;">Ügyféltámogatás</div><br />
<div class="starter1c" style="background: #ffffff; padding: 0.2em 0.4em;"><br />
<br />
* CSIRT, [[Andromeda malware | Andromeda malware]]: Andromeda malware-el kapcsolatos bejelentések.<br />
</div><br />
</div><br />
</div><br />
<br />
== Egyéb szolgáltatásokhoz tartozó leírások ==<br />
* [[Archiver | Tape archiver]]<br />
* [[N&eacute;vt&aacute;r]]: NIIF N&eacute;vt&aacute;rban hasznos tudnival&oacute;k, LDAP alap&uacute; alkalmaz&aacute;s-integr&aacute;ci&oacute;, stb.<br />
* [[TCS | Szerver tan&uacute;s&iacute;tv&aacute;ny szolg&aacute;ltat&aacute;s]]<br />
<br />
----<br />
: [[Wiki Login|Bővebben a Wiki belépésről]]<br />
: [[Szerkesztési irányelvek]]<br />
: [[Segítség a MediaWiki használatához]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=4360Szerkesztő:Molnarp(AT)niif.hu2018-08-21T10:52:57Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>===== AAI =====<br />
===== Shibboleth 3 IdP =====<br />
[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]<br />
<br />
===== Moonshot =====<br />
[[OpenSSH Server on Debian 8 | OpenSSH Server on Debian 8]]<br />
<br />
[[OpenSSH Server on Ubuntu 14.04 LTS | OpenSSH Server on Ubuntu 14.04 LTS]]<br />
<br />
==== Webhosting ====<br />
[[Webhosting|Webhosting]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Webhosting&diff=4359Webhosting2018-08-21T10:45:35Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „= Webhosting = == Futtatókörnyezet == * Apache 2.4.10 * PHP 5.6.36 * MariaDB 10.0.35 == Tűzfal == Szűrés kimenő és bejövő irányban. Külön kérésre portny…”</p>
<hr />
<div>= Webhosting =<br />
<br />
== Futtatókörnyezet ==<br />
* Apache 2.4.10<br />
* PHP 5.6.36<br />
* MariaDB 10.0.35<br />
<br />
== Tűzfal ==<br />
Szűrés kimenő és bejövő irányban. Külön kérésre portnyitási lehetőség.<br />
<br />
== Adminisztratív hozzáférés ==<br />
* SFTP hozzáférés a webroot-hoz.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=HPC_software&diff=4056HPC software2017-03-13T10:50:13Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>The current version of software on specific machines might be higher than described here. We are encouraging all users to install other tools to be used on our servers if service AUP and license restrictions are respected.<br />
<br />
{| class="wikitable" border="1" style="text-align:center;"<br />
<br />
|-<br />
!Software component<br />
!Debrecen<br />
!Pécs<br />
!Szeged<br />
!Budapest<br />
!Budapest2<br />
!Debrecen2,3 (Leo, Apollo)<br />
!Miskolc<br />
|-<br />
| colspan=8| '''Compiler environment (compiler, debugger, profiler)'''<br />
|-<br />
| AMD [http://developer.amd.com/tools-and-sdks/cpu-development/x86-open64-compiler-suite/ compilers ((opencc, openf90, openf95))] || colspan=2|-||colspan=2|Available||colspan=3|-<br />
|-<br />
| Math. Library (AMD) [http://developer.amd.com/tools/cpu-development/amd-core-math-library-acml ACML] ||colspan=2|-||colspan=2|4.2.4||colspan=3|-<br />
|-<br />
| [http://sources.redhat.com/gdb/ GDB] || colspan=2|7|| colspan=2|7.0.1|| colspan=2|7.2||7.5<br />
|-<br />
| [http://gcc.gnu.org/ GNU compilers (gcc, g++, gfortran)]||4,3||4.1.2 || colspan=2|4.1.2, 4.4.4|| colspan=2|4.4.7|| 4.8.5<br />
|-<br />
| Gprof|| colspan=2|2,2|| colspan=2|2,17|| colspan=2|2.20|| 2.26.1<br />
|-<br />
| Intel [http://software.intel.com/en-us/articles/intel-composer-xe/ compilers (icc, ifort)], [http://software.intel.com/en-us/articles/intel-math-kernel-library-documentation/ MKL], [http://software.intel.com/en-us/articles/intel-mkl-link-line-advisor/ Linking] ||colspan=2|12.1.5 (composerxe-2011 Update 11) ||colspan=2|-|| colspan=3|16.0<br />
|- <br />
| [http://oprofile.sourceforge.net/ Oprofile] || colspan=3|- ||0.9.4||colspan=3|-<br />
|- <br />
| colspan=8|'''Libraries supporting parallel development'''<br />
|- <br />
| LAM-MPI ||colspan=2|- ||colspan=2|7.1.2||colspan=3|-<br />
|- <br />
| MPICH2 ||colspan=2|1,4||colspan=2|1,2||colspan=3|-<br />
|- <br />
| [http://openmp.org/ OpenMP]||colspan=2|2.5 (GNU), 3.0 (Intel)||colspan=2|2.5 (GNU), 2.5 (AMD) ||colspan=3|2.5 (GNU), 3.0 (Intel)<br />
|- <br />
| [http://www.open-mpi.org/ OpenMPI] ||1.4.2 ||1.3.2 ||colspan=2|1.4.3 || colspan=2|1.8.5||1.6.3<br />
|- <br />
| [http://www.csm.ornl.gov/pvm/ PVM] ||colspan=4|3.4.5 ||colspan=3|-<br />
|- <br />
| [http://videotorium.hu/hu/recordings/details/12291,Overview_and_usage_of_the_SGI_HPC_softwares_on_the_SGI_ICE_and_SGI_UV_supercomputers SGI Perf. Suite] ||colspan=2|Available||colspan=2|-||colspan=2|-||Available<br />
|- <br />
| SGI-MPI (MPT) ||colspan=2|2,04||colspan=2|-||colspan=2|-||2.13<br />
|- <br />
| PGI Compiler and Tools ||colspan=5|-|| 15.10 || -<br />
|- <br />
| colspan=8|'''Libraries supporting scientific work'''<br />
|- <br />
| AmberTool || 16 ||colspan=6|-<br />
|-<br />
| Atlas ||colspan=4|3.8.3||colspan=3|-<br />
|- <br />
| BLACS ||colspan=4|1.1 (OpenMPI, MPICH2) ||1.1 (OpenMPI Intel)||3.1.3||-<br />
|- <br />
| BLAS ||colspan=2|3.2.2 ||colspan=2|3||3.6.1||-||3<br />
|- <br />
| Boost||colspan=2|1,36||colspan=2|1,33||colspan=3|-<br />
|- <br />
| FFTW ||colspan=2|3.1.2 ||colspan=2|3.2.2||3.3.5 ||3.3.4||3.3.3<br />
|- <br />
| Gromacs ||colspan=2|4.5.4 ||colspan=2|4.5.5||colspan=2|-||4.6.2<br />
|- <br />
| GUILE ||colspan=2|1.8.5 ||colspan=2|-||colspan=2|-||1.8.8<br />
|- <br />
| HDF5 ||colspan=2|1.8.7||colspan=2|-||colspan=2|1.8.14||-<br />
|- <br />
| LAMMPS ||colspan=4|-||16.05.14 (Phi)||16.05.14 (GPU, Phi)||-<br />
|-<br />
| Lapack ||colspan=2|3.2.2 ||colspan=2|3 ||3.6.1 ||colspan=2|-<br />
|- <br />
| [http://www.maplesoft.com/ Maple] ||colspan=2| - ||colspan=2|18||-||2015||-<br />
|- <br />
| [https://wiki.niif.hu/index.php?title=NIIF_szuperszámítógépek_használata#Matlab_feladatok Matlab] ||colspan=2|7.13.0 (R2011b)|| colspan=2|-||-||R2015b||-<br />
|- <br />
| NetCDF ||4.1.3 ||- ||colspan=2|4.2.1.1||4.4.1||4.3.3.1||-<br />
|- <br />
| NumPy ||colspan=2|1,3||colspan=2|1.7.1||1.11.2 ||-||1.7.0<br />
|- <br />
| PETSc||colspan=4|-||3.7.4 Intel||colspan=2|-<br />
|- <br />
| Python||colspan=4|2.7.5||3.5.2||colspan=2|-<br />
|- <br />
| Octave ||colspan=2|3,4||colspan=2|3.0.5 ||colspan=3|-<br />
|- <br />
| Qt||colspan=2|3.3.8b, 4.6.2||colspan=2|3.3.6 ||colspan=3|-<br />
|- <br />
| R ||2.8.1, 3.2.0, 3.2.5(Intel) || 2.8.1 ||colspan=2|-||colspan=2|-||3.0.1<br />
|- <br />
| Scalapack||colspan=4|1.7.5||colspan=2|2.0.2||-<br />
|- <br />
| Scilab ||colspan=2|5.3.2||colspan=2|-||colspan=3|-<br />
|- <br />
| Scipy||colspan=4|0.12.0||0.18.1 ||colspan=2|-<br />
|- <br />
| Sun JRE ||colspan=2|1,6||colspan=2|-||colspan=1|-||1.8||1.7<br />
|- <br />
| Gaussian||colspan=3|09_REV_C.01||-||-||colspan=2|09_REV_D.01<br />
|- <br />
| colspan=8|'''Middleware'''<br />
|- <br />
| [http://www.nordugrid.org/arc/ ARC grid middleware] ||colspan=7|4.1.0 (A-REX, ARIS, clients))<br />
|- <br />
| colspan=8|'''Miscellaneous software'''<br />
|- <br />
| Emacs ||colspan=2|22,3||colspan=2|21,4||-||23.1.1||22.3.1<br />
|- <br />
| GNU Plot ||colspan=2|4.2.3 ||colspan=2|4||colspan=3|-<br />
|- <br />
| ImageMagick ||colspan=2|6.4.3 ||colspan=2|6.2.8||colspan=3|-<br />
|- <br />
| [http://www.virtualgl.org/About/TigerVNC Turbo VNC]||colspan=4|1,1||colspan=3|2<br />
|- <br />
| [http://www.blender.org/ Blender]||colspan=3|2,49||-||colspan=2|2.49||-<br />
|- <br />
| [http://www.virtualgl.org/ VirtualGL]||colspan=3|2.3.2||-||colspan=2|2.4||-<br />
|- <br />
| [http://www.paraview.org/ Paraview]||colspan=3|3.14.1||-||colspan=3|3.14.1<br />
|- <br />
| ffmpeg||colspan=2|-||colspan=2|0.4.9||colspan=3|-<br />
|}<br />
<br />
[[Kategória: HPC]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Ubuntu_14.04_LTS&diff=3430OpenSSH Server on Ubuntu 14.04 LTS2015-11-02T13:30:27Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!).<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client how to install the Moonshot Libraries on Ubuntu 14.04 LTS].<br />
<br />
==Prepare the building environment==<br />
Install the required packages.<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.6p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.6p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
<br />
=Installing Instructions=<br />
The new packages can be installed with dpkg.<br />
dpkg -i ../openssh-server_6.6p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
service ssh restart<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Debian_8&diff=3429OpenSSH Server on Debian 82015-11-02T13:03:05Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>OpenSSH Server on Debian 8<br />
<br />
Debian 8 does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!)<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [https://wiki.moonshot.ja.net/display/Moonshot/Install+Moonshot+Libraries+on+Debian+7 how to install the Moonshot Libraries on Debian 7].<br />
<br />
==Prepare the building environment==<br />
Install the required packages.<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.7p1<br />
apt-get build-dep openssh<br />
<br />
=Building Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.7p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
<br />
=Installing Instructions=<br />
The new packages can be installed with dpkg.<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
systemctl restart ssh<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Ubuntu_14.04_LTS&diff=3416OpenSSH Server on Ubuntu 14.04 LTS2015-10-20T10:11:35Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!).<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client how to install the Moonshot Libraries on Ubuntu 14.04 LTS].<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.6p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.6p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
<br />
=Installing Instructions=<br />
The new packages can be installed with dpkg.<br />
dpkg -i ../openssh-server_6.6p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
service ssh restart<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Debian_8&diff=3415OpenSSH Server on Debian 82015-10-20T10:11:06Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>OpenSSH Server on Debian 8<br />
<br />
Debian 8 does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!)<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [https://wiki.moonshot.ja.net/display/Moonshot/Install+Moonshot+Libraries+on+Debian+7 how to install the Moonshot Libraries on Debian 7].<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.7p1<br />
apt-get build-dep openssh<br />
<br />
=Building Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.7p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
<br />
=Installing Instructions=<br />
The new packages can be installed with dpkg.<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
systemctl restart ssh<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Debian_8&diff=3414OpenSSH Server on Debian 82015-10-19T13:21:59Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>OpenSSH Server on Debian 8<br />
<br />
Debian 8 does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!)<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [https://wiki.moonshot.ja.net/display/Moonshot/Install+Moonshot+Libraries+on+Debian+7 how to install the Moonshot Libraries on Debian 7].<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.7p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.7p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
systemctl restart ssh<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Ubuntu_14.04_LTS&diff=3413OpenSSH Server on Ubuntu 14.04 LTS2015-10-19T13:21:35Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!).<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client how to install the Moonshot Libraries on Ubuntu 14.04 LTS].<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.6p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.6p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
service ssh restart<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Ubuntu_14.04_LTS&diff=3412OpenSSH Server on Ubuntu 14.04 LTS2015-10-19T13:21:08Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!).<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on [[https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client] how to install the Moonshot Libraries on Ubuntu 14.04 LTS].<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.6p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.6p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
service ssh restart<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Debian_8&diff=3411OpenSSH Server on Debian 82015-10-19T13:15:29Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>OpenSSH Server on Debian 8<br />
<br />
Debian 8 does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!)<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on how to install the Moonshot Libraries on Debian 7.<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.7p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.7p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
systemctl restart ssh<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Ubuntu_14.04_LTS&diff=3410OpenSSH Server on Ubuntu 14.04 LTS2015-10-19T13:15:11Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!).<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on how to install the Moonshot Libraries on Ubuntu 14.04 LTS.<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.6p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.6p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
service ssh restart<br />
<br />
* Configure the [https://wiki.moonshot.ja.net/display/Moonshot/OpenSSH+Client OpenSSH Client].</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Ubuntu_14.04_LTS&diff=3409OpenSSH Server on Ubuntu 14.04 LTS2015-10-19T13:13:46Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moo…”</p>
<hr />
<div>Ubuntu 14.04 LTS (Trusty Tahr) does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!).<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on how to install the Moonshot Libraries on Ubuntu 14.04 LTS.<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.6p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.6p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
service ssh restart<br />
<br />
* Configure the OpenSSH Client.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3408Szerkesztő:Molnarp(AT)niif.hu2015-10-19T11:19:00Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>=====Shibboleth 3 IdP=====<br />
[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]<br />
<br />
=====Moonshot=====<br />
[[OpenSSH Server on Debian 8 | OpenSSH Server on Debian 8]]<br />
<br />
[[OpenSSH Server on Ubuntu 14.04 LTS | OpenSSH Server on Ubuntu 14.04 LTS]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3407Szerkesztő:Molnarp(AT)niif.hu2015-10-19T11:18:46Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>=====Shibboleth 3 IdP=====<br />
[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]<br />
<br />
=====Moonshot=====<br />
[[OpenSSH Server on Debian 8 | OpenSSH Server on Debian 8]]<br />
[[OpenSSH Server on Ubuntu 12.04 LTS | OpenSSH Server on Ubuntu 12.04 LTS]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=OpenSSH_Server_on_Debian_8&diff=3406OpenSSH Server on Debian 82015-10-19T08:19:08Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „OpenSSH Server on Debian 8 Debian 8 does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specif…”</p>
<hr />
<div>OpenSSH Server on Debian 8<br />
<br />
Debian 8 does not ship with a version of OpenSSH that is compatible with Moonshot. To get Moonshot support for it, you must install a specific Moonshot-enabled version. The following instructions will guide you through the package building process.<br />
<br />
All of the instructions below assume that you have root access, and will work as the root user (either directly or using sudo).<br />
<br />
The instructions on this page will replace the system provided OpenSSH packages with the Moonshot enabled ones (don't worry, standard SSH things will still work!)<br />
<br />
Following the instructions on this page will give you a Moonshot-enabled OpenSSH Server only.<br />
<br />
=System Preparation=<br />
<br />
==Add the Moonshot libraries.==<br />
If you have not already done so, you first need to follow the instructions on how to install the Moonshot Libraries on Debian 7.<br />
<br />
==Prepare the building environment==<br />
apt-get install build-essential dpkg-dev fakeroot gnupg lintian patch patchutils strace unzip pbuilder debian-builder quilt \<br />
automake autoconf debhelper dh-make<br />
apt-get source openssh<br />
cd openssh-6.7p1<br />
apt-get build-dep openssh<br />
<br />
=Building and Installing Instructions=<br />
Download the gssapi-generic.patch, then build the packages.<br />
cd openssh-6.7p1<br />
cp /tmp/gssapi-generic.patch debian/patches<br />
echo "gssapi-generic.patch" >> debian/patches/series<br />
debuild -us -uc<br />
dpkg -i ../openssh-server_6.7p1-X_<arch>.deb<br />
<br />
=Configuration Instructions=<br />
Once installed, the Moonshot-enabled OpenSSH server will still need a few quick tweaks in order to turn on the Moonshot support.<br />
<br />
* Configure the OpenSSH server to use Moonshot by editing /etc/ssh/sshd_config. Check the following lines are present and uncommented:<br />
GSSAPIAuthentication yes<br />
GSSAPIKeyExchange yes<br />
GSSAPIStrictAcceptorCheck yes<br />
<br />
* Now restart the OpenSSH server<br />
systemctl restart ssh<br />
<br />
* Configure the OpenSSH Client.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3405Szerkesztő:Molnarp(AT)niif.hu2015-10-19T08:06:21Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>=====Shibboleth 3 IdP=====<br />
[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]<br />
<br />
=====Moonshot=====<br />
[[OpenSSH Server on Debian 8 | OpenSSH Server on Debian 8]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3404Szerkesztő:Molnarp(AT)niif.hu2015-10-19T08:05:38Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]<br />
<br />
[[OpenSSH Server on Debian 8 | OpenSSH Server on Debian 8]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpInstall&diff=3368Shib3IdpInstall2015-10-08T10:16:00Z<p>Molnarp(AT)niif.hu: /* Jetty 9.2 telepítés és előkészítés */</p>
<hr />
<div>Az alábbiakban a [http://shibboleth.net/products/identity-provider.html Shibboleth 3 Identity Provider] telepítése olvasható egyszerű beállítással.<br />
<br />
A telepítés ''Debian 8 (Jessie)'' operációs rendszerre történik [http://www.eclipse.org/jetty/ Jetty 9.2] alkalmazáskonténerbe.<br />
<br />
==Előkészületek==<br />
Telepítés előtt praktikus előkészíteni az Shibboleth 3 Identity Provider (IdP) környezetét. Az IdP központi szerepet tölt be, így elérhetősége szerencsés esetben ritkán változik.<br />
<br />
* <tt>entityID</tt> (URI)<br />
**Az entityID az a SAML azonosító, mely egyedi névvel látja el az IdP-t. Az első lépések egyike telepítéskor a megfelelő és gondos kiválasztása. Föderáción belül és világszinten egyedi kell legyen az ütközések elkerülése érdekében.<br />
**Javasolt forma: '''<code>https://idp.intezmenyneve.hu/idp/shibboleth</code>'''.<br />
**A gépnév rész legyen bejegyzett DNS név.<br />
**Ne tartalmazzon portszámot, lekérdezést, részazonosítót.<br />
* <tt>DNS</tt><br />
** Az entityID megtalálása után szükséges az IdP nevének DNS-be jegyzése.<br />
**Javasolt forma: '''<code>idp.intezmenyneve.hu</code>'''.<br />
{{STOP|Az entityID a szolgáltatás neve, nem a kiszolgáló számítógépé. Érdemes a neveket úgy megválasztani, hogy egy későbbi gépcsere esetén is független legyen a gépnév a szolgáltatás nevétől.}}<br />
* <tt>Tűzfal</tt><br />
** Szükséges nyitott portok a ''TCP/443'' és ''TCP/8443''.<br />
* <tt>Operációs rendszer és Java futtató-környezet</tt><br />
** A jelen telepítési leírás Debian 8 (Jessie) rendszerhez készült.<br />
** Java telepítése<br />
**: <source lang="bash">apt-get install default-jdk</source><br />
<br />
==Jetty 9.2 telepítés és előkészítés==<br />
Letöltés: http://download.eclipse.org/jetty/<br />
<br />
Telepítés menete.<br />
<source lang="bash"><br />
cd /opt<br />
tar -xf jetty-distribution-9.2.<legutóbbi stabil verzió>.tar.gz<br />
</source><br />
<br />
Jetty előkészítése Shibboleth 3 IdP számára.<br />
<br />
<source lang="bash"><br />
cd /opt<br />
mkdir jetty-shibboleth-idp<br />
cd jetty-shibboleth-idp<br />
mkdir etc modules lib logs resources webapps tmp<br />
cd /opt/jetty-distribution-9.<legutóbbi stabil verzió><br />
cp etc/jetty-ssl.xml /opt/jetty-shibboleth-idp/etc/<br />
cp etc/jetty-https.xml /opt/jetty-shibboleth-idp/etc/<br />
cp etc/keystore /opt/jetty-shibboleth-idp/etc/<br />
cp etc/keystore.pkf /opt/jetty-shibboleth-idp/etc/<br />
cp modules/https.mod /opt/jetty-shibboleth-idp/modules/<br />
cp modules/ssl.mod /opt/jetty-shibboleth-idp/modules/<br />
</source><br />
Hozzuk létre a Jetty <tt>start.ini</tt> állományt az alábbi tartalommal az <tt>/opt/jetty-shibboleth-idp/start.ini</tt> helyen.<br />
<source lang="ini"><br />
# Required Jetty modules<br />
--module=server<br />
--module=deploy<br />
--module=annotations<br />
--module=resources<br />
--module=logging<br />
--module=requestlog<br />
--module=https<br />
--module=ssl<br />
--module=servlets<br />
--module=jsp<br />
--module=jstl<br />
--module=ext<br />
--module=plus<br />
<br />
# Allows setting Java system properties (-Dname=value)<br />
# and JVM flags (-X, -XX) in this file<br />
# NOTE: spawns child Java process<br />
--exec<br />
<br />
-Didp.home=/opt/shibboleth-idp<br />
<br />
-Djava.io.tmpdir=tmp<br />
<br />
# Maximum amount of memory that Jetty may use, at least 512M is recommended<br />
-Xmx512m<br />
<br />
# Maximum amount of memory allowed for the JVM permanent generation<br />
-XX:MaxPermSize=128m<br />
</source><br />
Webapp XML állomány létrehozása az IDP-hez az <tt>/opt/jetty-shibboleth/webapps/idp.xml</tt> helyen az alábbi tartalommal.<br />
<source lang="xml"><br />
<Configure class="org.eclipse.jetty.webapp.WebAppContext"><br />
<Set name="war"><SystemProperty name="idp.home"/>/war/idp.war</Set><br />
<Set name="contextPath">/idp</Set><br />
<Set name="extractWAR">false</Set><br />
<Set name="copyWebDir">false</Set><br />
<Set name="copyWebInf">true</Set><br />
</Configure><br />
</source><br />
<br />
==Shibboleth 3 Identity Provider telepítés Jetty 9.2 konténerbe==<br />
Letöltés: http://shibboleth.net/downloads/identity-provider/latest/<br />
<source lang="bash"><br />
cd /opt<br />
wget http://shibboleth.net/downloads/identity-provider/latest/shibboleth-identity-provider-VERSION.tar.gz<br />
tar -xf shibboleth-identity-provider-VERSION.tar.gz<br />
</source><br />
Telepítés<br />
root@idp:~# cd /opt/shibboleth-identity-provider-VERSION<br />
root@idp:/opt/shibboleth-identity-provider-3.1.1# bin/install.sh <br />
Source (Distribution) Directory: [/opt/shibboleth-identity-provider-3.1.1]<br />
<br />
Installation Directory: [/opt/shibboleth-idp]<br />
<br />
Hostname: [localhost.localdomain]<br />
'''idp.intezmenyneve.hu'''<br />
SAML EntityID: [https://idp.intezmenyneve.hu/idp/shibboleth https://idp.intezmenyneve.hu/idp/shibboleth]<br />
<br />
Attribute Scope: [localdomain]<br />
'''intezmenyneve.hu'''<br />
TLS Private Key Password: '''****'''<br />
Re-enter password: '''****'''<br />
Cookie Encryption Key Password: '''****'''<br />
Re-enter password: '''****'''<br />
Warning: /opt/shibboleth-idp/bin does not exist.<br />
Warning: /opt/shibboleth-idp/dist does not exist.<br />
Warning: /opt/shibboleth-idp/doc does not exist.<br />
Warning: /opt/shibboleth-idp/system does not exist.<br />
Warning: /opt/shibboleth-idp/webapp does not exist.<br />
Generating Signing Key, CN = idp.intezmenyneve.hu URI = https://idp.intezmenyneve.hu/idp/shibboleth ...<br />
...done<br />
Creating Encryption Key, CN = idp.intezmenyneve.hu URI = https://idp.intezmenyneve.hu/idp/shibboleth ...<br />
...done<br />
Creating TLS keystore, CN = idp.intezmenyneve.hu URI = https://idp.intezmenyneve.hu/idp/shibboleth ...<br />
...done<br />
Creating cookie encryption key files...<br />
...done<br />
Rebuilding /opt/shibboleth-idp/war/idp.war ...<br />
...done<br />
<br />
BUILD SUCCESSFUL<br />
Total time: 1 minute 21 seconds<br />
root@idp:/opt/shibboleth-identity-provider-3.1.1#<br />
<br />
==Az IdP indítása==<br />
<source lang="bash"><br />
cd /opt/jetty-shibboleth-idp<br />
java -jar /opt/jetty-distribution-9.2.<legutóbbi stabil verzió>/start.jar<br />
</source><br />
Böngészőben a https://idp.intezmenyneve.hu:8443/idp URL-en rövid tájékoztatást kell kapnunk ''No services are available at this location.'' szöveggel.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=AAI&diff=3333AAI2015-09-11T12:03:28Z<p>Molnarp(AT)niif.hu: /* Föderációs alapinfrastruktúrák (IdP-k, SP-k) */</p>
<hr />
<div>=== Meghatározások ===<br />
<br />
* [[Föderáció]]<br />
* [[Pont-pont bizalmi kapcsolati modell]]<br />
* [[Metadata]]<br />
* [[Föderációs modellek]]<br />
* [[WAYF | Home Location Service]]<br />
* [[Shibboleth]]<br />
* [[AAIGettingStarted | Hogy kezdjem?]]<br />
<br />
===Föderációs alapinfrastruktúrák (IdP-k, SP-k)===<br />
Tapasztalatok alapján IdP esetén egyszerűsége miatt talán jobb választás a simpleSAMLphp, SP esetén Shibboleth ill. simpleSAMLphp egyaránt megfelelő választás /etc/ssl/certs/adminmail.sulinet.hu.crtmind beállítási, mind üzemeltetési szempontból.<br />
* Shibboleth IdP: [[Shib3IdpInstall|Telepítés, beállítás]], [[Shibboleth3 IdP|Egyéb leírások]], [[Shibboleth2 IdP|Shibboleth 2 IdP leírások]]<br />
* Shibboleth SP: [[ShibSP_QuickStart|Kezdőlépések]], [[Shibboleth2 SP|Egyéb leírások]]<br />
* simpleSAMLphp IdP és SP: [[SSP_QuickStart|Kezdőlépések]]<br />
* [[IdP_whichone|Melyik IdP-t válasszam?]]<br />
<br />
===HREF/eduID föderációhoz kapcsolódó tudnivalók===<br />
* [[HREFContract]]: A föderációhoz kapcsolódó dokumentációk gyűjtőlapja<br />
* [[HREFAttributeSpec]]: A föderációban használható attribútumok specifikációja<br />
* [[HREFMetadataSpec]]: A föderációban használt metadata specifikációja<br />
* [[Resource_Registry]]: A föderáció adminisztrációs felületének leírása<br />
* Hivatalos metadata: [http://metadata.eduid.hu/current/ http://metadata.eduid.hu/current/]<br />
* [https://listserv.niif.hu/mailman/listinfo/href-tech HREF-Tech levelezőlista]<br />
<br />
===További föderációs megoldások===<br />
* [[Shibboleth2 DiscoveryService]]: Shibboleth 2.0 SAML-kompatibilis Discovery Service<br />
* [[OpenSSO]]: Nehézsúlyú Java hozzáférés-szabályozást és federációt megvalósító rendszer<br />
* [[OpenID]]: Széles körben támogatott, de nem SAML-alapú federációt megvalósító rendszer<br />
* [[GoogleAuth]]: Google, mint [[OpenID]] szabványú IdP<br />
* [[mod_mellon]]: SP megoldás apache modulban. A SAML2 motort a [http://lasso.entrouvert.org Lasso] valósítja meg. [http://docs.feide.no/fs-0050]<br />
* [[oiosaml.java]]: Java SP megoldás, amit a Dán állam is használ. [http://www.softwareborsen.dk/projekter/softwarecenter/brugerstyring/oio-saml-java]<br />
* [[UApprove]]: Shibboleth 2.1.x IdP-hez illeszthető "consent-modul" beállításának leírása<br />
* [[Shibboleth troubleshooting]]: Shibboleth hibaelhárítás<br />
<br />
===Kiegészítő tudnivalók===<br />
* [[Alkalmazások illesztése]]: Néhány alkalmazás Shibboleth-illesztésének leírása<br />
* [[Interoperabilitás mátrix]]: Shibboleth, OpenSSO, simpleSAMLphp együttműködési mátrix<br />
* [[Eszközök]]: Hasznos eszközök föderációk üzemeltetéséhez, használatához<br />
<br />
* [[Publikációk]]<br />
<br />
[[Kategória: Összefoglaló lapok]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shibboleth3_IdP&diff=3332Shibboleth3 IdP2015-09-11T12:01:56Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „; Telepítési leírások * Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2) * [[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építé…”</p>
<hr />
<div>; Telepítési leírások<br />
* [[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
* [[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]<br />
<br />
; Konfigurációs leírások<br />
* [[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
* [[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
* [[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
* [[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Kategória: Összefoglaló lapok]]<br />
[[Kategória: Shibboleth3]]<br />
[[Kategória: Shibboleth3 IdP]]<br />
[[Kategória: Csonkok]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpMetadata&diff=3331Shib3IdpMetadata2015-09-11T11:55:55Z<p>Molnarp(AT)niif.hu: /* Tovább a föderációba */</p>
<hr />
<div>Shibboleth 3 IdP metaadat beállítása<br />
<br />
'''Vonatkozó állományok:'''<br />
:<tt>{idp.home}/conf/metadata-providers.xml</tt><br />
<br />
====Nem föderációs SP metaadat====<br />
Nem föderációs SP metaadatának felvitele a <tt>metadata-providers.xml</tt> állományba az alábbiak szerint történik. A példában szereplő <tt>%{idp.home}/metadata/sp-sp.intezmenyneve-metadata.xml</tt> állományt el kell helyezni az állományrendszerben és meg kell győződni annak valódiságáról (nincs aláírva).<br />
<source lang="xml" line><br />
<br />
<MetadataProvider id="ShibbolethMetadata" xsi:type="ChainingMetadataProvider" ... ><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!-- Helyi, nem föderációs SP --><br />
<MetadataProvider id="SajatSPLocalMetadata"<br />
xsi:type="FilesystemMetadataProvider"<br />
metadataFile="%{idp.home}/metadata/sp-sp.intezmenyneve-metadata.xml"/><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
</MetadataProvider><br />
</source><br />
<br />
====EduID föderációs metaadat====<br />
EduID föderációs metaadat felvitele a <tt>metadata-providers.xml</tt> állományba az alábbiak szerint történik.<br />
Töltsük le föderáció metaadat aláíró tanúsítványát.<br />
<source lang="bash"><br />
cd /opt/shibboleth-idp/credentials<br />
wget https://metadata.eduid.hu/href-metadata-signer-2011.crt<br />
</source><br />
<br />
A tanúsítvány SHA-1 és SHA-256 lenyomata a következőképpen ellenőrizhető le.<br />
<source lang="bash"><br />
$ openssl x509 -in href-metadata-signer-2011.crt -noout -fingerprint<br />
SHA1 Fingerprint=FE:AE:0B:E8:FB:59:ED:F7:CB:7F:69:DF:19:4F:8B:6D:C7:F6:96:66<br />
$ openssl x509 -in href-metadata-signer-2011.crt -noout -fingerprint -sha256<br />
SHA256 Fingerprint=B3:2C:16:EB:3B:77:39:42:46:E3:CD:D7:86:D6:0D:11:A9:FB:6E:1C:11:E2:FD:23:71:67:E4:33:B4:ED:9F:FA<br />
</source><br />
<br />
Szerkesszük a beállítóállományt.<br />
<br />
<source lang="xml" line><br />
<br />
<MetadataProvider id="ShibbolethMetadata" xsi:type="ChainingMetadataProvider" ... ><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!-- eduID.hu föderációs metaadat --><br />
<MetadataProvider id="HTTPMetadata"<br />
xsi:type="FileBackedHTTPMetadataProvider"<br />
backingFile="%{idp.home}/metadata/localCopyFromEduID.xml"<br />
metadataURL="https://metadata.eduid.hu/current/href.xml"><br />
<MetadataFilter xsi:type="SignatureValidation"<br />
requireSignedMetadata="true"<br />
certificateFile="${idp.home}/credentials/href-metadata-signer-2011.crt" /><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
</MetadataProvider><br />
</source><br />
<br />
Az eduID föderáció metaadat weblapja a https://metadata.eduid.hu/ helyen érhető el.<br />
<br />
====Tovább a föderációba====<br />
Amennyiben a telepítendő IdP-t szeretnénk a HREF-be integrálni, úgy ennél a pontnál küldjünk egy levelet az [mailto:aai@niif.hu aai@niif.hu] címre, amely nyomán, ha minden rendben van, az IdP regisztrálásra kerül a Resource Registry-ben.<br />
<br />
====Dokumentáció====<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/MetadataConfiguration<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/HTTPMetadataProviders</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpProd&diff=3241Shib3IdpProd2015-07-06T12:36:07Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „Shibboleth 3 IdP éles szolgáltatás építése ====Linux rendszer-szolgáltatás Debian-on==== Az alábbi parancsokat '''root''' felhasználóként futtassuk. <sourc…”</p>
<hr />
<div>Shibboleth 3 IdP éles szolgáltatás építése<br />
<br />
====Linux rendszer-szolgáltatás Debian-on====<br />
Az alábbi parancsokat '''root''' felhasználóként futtassuk.<br />
<source lang="bash" line><br />
mkdir /opt/jetty-home<br />
useradd -d /opt/jetty-home -U -r -s /bin/false jetty<br />
chown jetty:jetty jetty-home<br />
echo "JETTY_USER=\"jetty\"<br />
JETTY_HOME=/opt/jetty-distribution-9.2.<legutóbbi stabil verzió><br />
JETTY_BASE=/opt/jetty-shibboleth-idp" > /etc/default/jetty<br />
cp /opt/jetty-distribution-9.2.<legutóbbi stabil verzió>/bin/jetty.sh /etc/init.d/jetty<br />
update-rc.d jetty defaults<br />
</source><br />
* Az '''1-3.''' sorban elkészítjük a ''jetty'' nevű rendszerszintű felhasználót, akinek a nevében fut a szolgáltatás.<br />
* A '''4-6.''' sorban a szolgáltatás Debian-specifikus beállítóállományába veszünk fel beállításokat. A JETTY_HOME helyen található a letöltés után kicsomagolt Jetty alkalmazás-konténer. A JETTY_BASE helyen a Shibboleth 3 IdP alkalmazáshoz beállított Jetty példány helyezkedik el.<br />
* A '''7-8.''' sorban a rendszer-szolgáltatások könyvtárába másoljuk az indító script-et és bekapcsoljuk az önműködő indulást.<br />
====Dokumentáció====<br />
* https://www.eclipse.org/jetty/documentation/current/startup-unix-service.html</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3240Szerkesztő:Molnarp(AT)niif.hu2015-07-06T12:19:55Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]<br />
<br />
[[Shib3IdpProd | Shibboleth 3 IdP éles szolgáltatás építése (unix service)]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpMetadata&diff=3239Shib3IdpMetadata2015-07-06T10:23:49Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Shibboleth 3 IdP metaadat beállítása<br />
<br />
'''Vonatkozó állományok:'''<br />
:<tt>{idp.home}/conf/metadata-providers.xml</tt><br />
<br />
====Nem föderációs SP metaadat====<br />
Nem föderációs SP metaadatának felvitele a <tt>metadata-providers.xml</tt> állományba az alábbiak szerint történik. A példában szereplő <tt>%{idp.home}/metadata/sp-sp.intezmenyneve-metadata.xml</tt> állományt el kell helyezni az állományrendszerben és meg kell győződni annak valódiságáról (nincs aláírva).<br />
<source lang="xml" line><br />
<br />
<MetadataProvider id="ShibbolethMetadata" xsi:type="ChainingMetadataProvider" ... ><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!-- Helyi, nem föderációs SP --><br />
<MetadataProvider id="SajatSPLocalMetadata"<br />
xsi:type="FilesystemMetadataProvider"<br />
metadataFile="%{idp.home}/metadata/sp-sp.intezmenyneve-metadata.xml"/><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
</MetadataProvider><br />
</source><br />
<br />
====EduID föderációs metaadat====<br />
EduID föderációs metaadat felvitele a <tt>metadata-providers.xml</tt> állományba az alábbiak szerint történik.<br />
Töltsük le föderáció metaadat aláíró tanúsítványát.<br />
<source lang="bash"><br />
cd /opt/shibboleth-idp/credentials<br />
wget https://metadata.eduid.hu/href-metadata-signer-2011.crt<br />
</source><br />
<br />
A tanúsítvány SHA-1 és SHA-256 lenyomata a következőképpen ellenőrizhető le.<br />
<source lang="bash"><br />
$ openssl x509 -in href-metadata-signer-2011.crt -noout -fingerprint<br />
SHA1 Fingerprint=FE:AE:0B:E8:FB:59:ED:F7:CB:7F:69:DF:19:4F:8B:6D:C7:F6:96:66<br />
$ openssl x509 -in href-metadata-signer-2011.crt -noout -fingerprint -sha256<br />
SHA256 Fingerprint=B3:2C:16:EB:3B:77:39:42:46:E3:CD:D7:86:D6:0D:11:A9:FB:6E:1C:11:E2:FD:23:71:67:E4:33:B4:ED:9F:FA<br />
</source><br />
<br />
Szerkesszük a beállítóállományt.<br />
<br />
<source lang="xml" line><br />
<br />
<MetadataProvider id="ShibbolethMetadata" xsi:type="ChainingMetadataProvider" ... ><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!-- eduID.hu föderációs metaadat --><br />
<MetadataProvider id="HTTPMetadata"<br />
xsi:type="FileBackedHTTPMetadataProvider"<br />
backingFile="%{idp.home}/metadata/localCopyFromEduID.xml"<br />
metadataURL="https://metadata.eduid.hu/current/href.xml"><br />
<MetadataFilter xsi:type="SignatureValidation"<br />
requireSignedMetadata="true"<br />
certificateFile="${idp.home}/credentials/href-metadata-signer-2011.crt" /><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
</MetadataProvider><br />
</source><br />
<br />
Az eduID föderáció metaadat weblapja a https://metadata.eduid.hu/ helyen érhető el.<br />
<br />
====Tovább a föderációba====<br />
Amennyiben a telepítendő IdP-t szeretnénk a HREF-be integrálni, úgy ennél a pontnál küldjünk egy levelet az [mailto:aai@niif.hu aai@niif.hu] címre, amely nyomán, ha minden rendben van, az IdP regisztrálásra kerül a [[Resource_Registry]]-ben.<br />
<br />
[[Resource_Registry#IdP_regisztr.C3.A1ci.C3.B3|További információk a Resource Registry-be történő felvételről]]<br />
<br />
====Dokumentáció====<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/MetadataConfiguration<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/HTTPMetadataProviders</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpMetadata&diff=3236Shib3IdpMetadata2015-07-03T10:08:30Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „Shibboleth 3 IdP metaadat beállítása”</p>
<hr />
<div>Shibboleth 3 IdP metaadat beállítása</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3235Szerkesztő:Molnarp(AT)niif.hu2015-07-03T10:08:12Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpMetadata | Shibboleth 3 IdP metaadat beállítása]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpAttrib&diff=3234Shib3IdpAttrib2015-07-03T10:05:03Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Shibboleth 3 IdP attribútum feloldás beállítása<br />
<br />
'''Vonatkozó állományok:'''<br />
:<tt>{idp.home}/conf/attribute-resolver.xml</tt><br />
:<tt>{idp.home}/conf/idp.properties</tt><br />
<br />
Az alábbiakban LDAP címtárat használunk forrás adatbázisként az attribútumok feloldásához. Az <tt>{idp.home}/conf/ldap.properties</tt> állományban beállított kapcsolódási paraméterek az attribútum feloldáshoz is használhatók.<br />
<br />
Az <tt>{idp.home}/conf/attribute-resolver-ldap.xml</tt> állomány jó kiindulási pont, cseréljük le erre az <tt>{idp.home}/conf/attribute-resolver.xml</tt> állományt.<br />
<source lang="bash"><br />
cd /opt/shibboleth-idp/conf # vagy ahová az IdP telepítésre került<br />
cp attribute-resolver.xml attribute-resolver-simple.xml # másolat készítése<br />
cp attribute-resolver-ldap.xml attribute-resolver.xml<br />
</source><br />
<br />
Szerkesszük az alábbiak szerint az <tt>{idp.home}/conf/attribute-resolver.xml</tt> állományt. A ''mail'' attribútumot már tartalmazza a beállító állomány. Az alábbi példában az ''sn'' és ''givenName'' attribútumokat vesszük fel.<br />
<source lang="xml" line><br />
<!-- ========================================== --><br />
<!-- Attribute Definitions --><br />
<!-- ========================================== --><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!--<br />
In the rest of the world, the email address is the standard identifier,<br />
despite the problems with that practice. Consider making the EPPN value<br />
the same as your official email addresses whenever possible.<br />
--><br />
<resolver:AttributeDefinition id="mail" xsi:type="ad:Simple" sourceAttributeID="mail"><br />
<resolver:Dependency ref="myLDAP" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML1String" name="urn:mace:dir:attribute-def:mail" encodeType="false" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML2String" name="urn:oid:0.9.2342.19200300.100.1.3" friendlyName="mail" encodeType="false" /><br />
</resolver:AttributeDefinition><br />
<br />
<resolver:AttributeDefinition id="sn" xsi:type="ad:Simple" sourceAttributeID="sn"><br />
<resolver:Dependency ref="myLDAP" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML1String" name="urn:mace:dir:attribute-def:sn" encodeType="false" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML2String" name="urn:oid:2.5.4.4" friendlyName="sn" encodeType="false" /><br />
</resolver:AttributeDefinition><br />
<br />
<resolver:AttributeDefinition id="givenName" xsi:type="ad:Simple" sourceAttributeID="givenName"><br />
<resolver:Dependency ref="myLDAP" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML1String" name="urn:mace:dir:attribute-def:givenName" encodeType="false" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML2String" name="urn:oid:2.5.4.42" friendlyName="givenName" encodeType="false" /><br />
</resolver:AttributeDefinition><br />
<br />
<!-- ========================================== --><br />
<!-- Data Connectors --><br />
<!-- ========================================== --><br />
<br />
<!-- ... további tartalom ... --><br />
</source><br />
* A '''18, 24.''' sorban adjuk meg az attribútum nevét, valamint, hogy egyszerű attribútumról van szó, nem szükséges átalakítani.<br />
* A '''19, 25.''' sor hivatkozik a használandó LDAP kapcsolatra.<br />
* A '''21, 27.''' sorbeli SAML2String előállításához szükséges oid megegyezik az attribútum LDAP sémabeli oid-jával.<br />
<br />
'''Dokumentáció:'''<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/AttributeResolverConfiguration</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpARP&diff=3233Shib3IdpARP2015-07-03T09:10:27Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Shibboleth 3 IdP attribútum szűrés beállítása<br />
<br />
'''Vonatkozó állományok:'''<br />
:<tt>{idp.home}/conf/attribute-filter.xml</tt><br />
:<tt>{idp.home}/conf/idp.properties</tt><br />
<br />
Az <tt>{idp.home}/conf/attribute-filter.xml</tt> állomány már tartalmaz néhány egyszerű példa beállítást. Az alábbi módosítások lehetővé teszik, hogy az attribútum feloldó által feloldott ''sn'' és ''givenName'' attribútumok az SP-k számára elérhetők legyenek. Bővítsük az állományt az alábbiak szerint.<br />
<source lang="xml" line><br />
<afp:AttributeFilterPolicyGroup id="ShibbolethFilterPolicy"<br />
xmlns:afp="urn:mace:shibboleth:2.0:afp"<br />
xmlns:basic="urn:mace:shibboleth:2.0:afp:mf:basic"<br />
xmlns:saml="urn:mace:shibboleth:2.0:afp:mf:saml"<br />
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"<br />
xsi:schemaLocation="urn:mace:shibboleth:2.0:afp http://shibboleth.net/schema/idp/shibboleth-afp.xsd<br />
urn:mace:shibboleth:2.0:afp:mf:basic http://shibboleth.net/schema/idp/shibboleth-afp-mf-basic.xsd<br />
urn:mace:shibboleth:2.0:afp:mf:saml http://shibboleth.net/schema/idp/shibboleth-afp-mf-saml.xsd"><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!-- ezeket az attribútumokat minden SP megkapja --><br />
<afp:AttributeFilterPolicy id="mindensp"><br />
<afp:PolicyRequirementRule xsi:type="basic:ANY"/><br />
<br />
<afp:AttributeRule attributeID="sn"><br />
<afp:PermitValueRule xsi:type="basic:ANY" /><br />
</afp:AttributeRule><br />
<afp:AttributeRule attributeID="givenName"><br />
<afp:PermitValueRule xsi:type="basic:ANY" /><br />
</afp:AttributeRule><br />
</afp:AttributeFilterPolicy><br />
<br />
<!-- ezeket az attribútumokat csak a megadott SP kapja meg --><br />
<afp:AttributeFilterPolicy id="intezmenysp1"><br />
<afp:PolicyRequirementRule xsi:type="basic:AttributeRequesterString" value="https://sp1.intezmenyneve.hu/shibboleth"/><br />
<br />
<afp:AttributeRule attributeID="description"><br />
<afp:PermitValueRule xsi:type="basic:ANY"/><br />
</afp:AttributeRule><br />
</afp:AttributeFilterPolicy><br />
<br />
</afp:AttributeFilterPolicyGroup><br />
</source><br />
* A '''14.''' sor szerint minden SP-re vonatkozik a szabály.<br />
* A '''16, 19.''' sorban megadott attribútumokat a 14. sor alapján minden SP látja.<br />
* A '''26.''' sorban megadott SP-re vonatkozóan rendelkezünk.<br />
* A '''28.''' sor szerint ez az SP megkapja a ''description'' attribútumot.<br />
<br />
'''Dokumentáció:'''<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/AttributeFilterConfiguration<br />
* https://wiki.shibboleth.net/confluence/display/IDP30/AttributeFilterPolicyConfiguration</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3232Szerkesztő:Molnarp(AT)niif.hu2015-07-03T08:38:49Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]<br />
<br />
[[Shib3IdpARP | Shibboleth 3 IdP attribútum szűrés beállítása]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpARP&diff=3231Shib3IdpARP2015-07-03T08:38:40Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „Shibboleth 3 IdP attribútum szűrés beállítása”</p>
<hr />
<div>Shibboleth 3 IdP attribútum szűrés beállítása</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpAttrib&diff=3230Shib3IdpAttrib2015-07-03T08:35:55Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Shibboleth 3 IdP attribútum feloldás beállítása<br />
<br />
'''Vonatkozó állományok:'''<br />
:<tt>{idp.home}/conf/attribute-resolver.xml</tt><br />
:<tt>{idp.home}/conf/idp.properties</tt><br />
<br />
Az alábbiakban LDAP címtárat használunk forrás adatbázisként az attribútumok feloldásához. Az <tt>{idp.home}/conf/ldap.properties</tt> állományban beállított kapcsolódási paraméterek az attribútum feloldáshoz is használhatók.<br />
<br />
Az <tt>{idp.home}/conf/attribute-resolver-ldap.xml</tt> állomány jó kiindulási pont, cseréljük le erre az <tt>{idp.home}/conf/attribute-resolver.xml</tt> állományt.<br />
<source lang="bash"><br />
cd /opt/shibboleth-idp/conf # vagy ahová az IdP telepítésre került<br />
cp attribute-resolver.xml attribute-resolver-simple.xml # másolat készítése<br />
cp attribute-resolver-ldap.xml attribute-resolver.xml<br />
</source><br />
<br />
Szerkesszük az alábbiak szerint az <tt>{idp.home}/conf/attribute-resolver.xml</tt> állományt. A ''mail'' attribútumot már tartalmazza a beállító állomány. Az alábbi példában az ''sn'' és ''givenName'' attribútumokat vesszük fel.<br />
<source lang="xml" line><br />
<!-- ========================================== --><br />
<!-- Attribute Definitions --><br />
<!-- ========================================== --><br />
<br />
<!-- ... további tartalom ... --><br />
<br />
<!--<br />
In the rest of the world, the email address is the standard identifier,<br />
despite the problems with that practice. Consider making the EPPN value<br />
the same as your official email addresses whenever possible.<br />
--><br />
<resolver:AttributeDefinition id="mail" xsi:type="ad:Simple" sourceAttributeID="mail"><br />
<resolver:Dependency ref="myLDAP" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML1String" name="urn:mace:dir:attribute-def:mail" encodeType="false" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML2String" name="urn:oid:0.9.2342.19200300.100.1.3" friendlyName="mail" encodeType="false" /><br />
</resolver:AttributeDefinition><br />
<br />
<resolver:AttributeDefinition id="sn" xsi:type="ad:Simple" sourceAttributeID="sn"><br />
<resolver:Dependency ref="myLDAP" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML1String" name="urn:mace:dir:attribute-def:sn" encodeType="false" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML2String" name="urn:oid:2.5.4.4" friendlyName="sn" encodeType="false" /><br />
</resolver:AttributeDefinition><br />
<br />
<resolver:AttributeDefinition id="givenName" xsi:type="ad:Simple" sourceAttributeID="givenName"><br />
<resolver:Dependency ref="myLDAP" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML1String" name="urn:mace:dir:attribute-def:givenName" encodeType="false" /><br />
<resolver:AttributeEncoder xsi:type="enc:SAML2String" name="urn:oid:2.5.4.42" friendlyName="givenName" encodeType="false" /><br />
</resolver:AttributeDefinition><br />
<br />
<!-- ========================================== --><br />
<!-- Data Connectors --><br />
<!-- ========================================== --><br />
</source><br />
* A '''18, 24.''' sorban adjuk meg az attribútum nevét, valamint, hogy egyszerű attribútumról van szó, nem szükséges átalakítani.<br />
* A '''19, 25.''' sor hivatkozik a használandó LDAP kapcsolatra.<br />
* A '''21, 27.''' sorbeli SAML2String előállításához szükséges oid megegyezik az attribútum LDAP sémabeli oid-jával.</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3228Szerkesztő:Molnarp(AT)niif.hu2015-07-02T10:50:35Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]<br />
<br />
[[Shib3IdpAttrib | Shibboleth 3 IdP attribútum feloldás beállítása]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpAttrib&diff=3227Shib3IdpAttrib2015-07-02T10:50:25Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „Shibboleth 3 IdP attribútum feloldás beállítása”</p>
<hr />
<div>Shibboleth 3 IdP attribútum feloldás beállítása</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpAuth&diff=3226Shib3IdpAuth2015-07-02T10:45:58Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Shibboleth 3 Identity Provider (IdP) hitelesítés<br />
<br />
===Shibboleth 3 OpenLDAP címtárhoz kapcsolása===<br />
Szerkesszük az ''{idp.home}/conf/ldap.properties'' állományt az alábbiak szerint<br />
<source lang="ini"><br />
...<br />
## Connection properties ##<br />
idp.authn.LDAP.ldapURL = ldap://ldap.intezmenyneve.hu:389<br />
idp.authn.LDAP.useStartTLS = false<br />
...<br />
idp.authn.LDAP.bindDN = cn=pelda-admin-felhasznalo,dc=intezmenyneve,dc=hu<br />
idp.authn.LDAP.bindDNCredential = jelszo<br />
<br />
# Format DN resolution, used by directAuthenticator, adAuthenticator<br />
# for AD use idp.authn.LDAP.dnFormat=%s@domain.com<br />
idp.authn.LDAP.dnFormat = uid=%s,ou=people,dc=intezmenyneve,dc=hu<br />
...<br />
</source><br />
{{INFO|A Shibboleth Identity Provider 2-es és 3-as verziója közötti egyik fontos különbség az LDAP hitelesítés átalakítása és natív könyvtárak használata a korábbi JAAS helyett.}}<br />
Dokumentáció: https://wiki.shibboleth.net/confluence/display/IDP30/LDAPAuthnConfiguration</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpAuth&diff=3223Shib3IdpAuth2015-06-30T14:06:03Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>Shibboleth 3 Identity Provider (IdP) hitelesítés<br />
<br />
===Shibboleth 3 OpenLDAP címtárhoz kapcsolása===<br />
Szerkesszük az ''{idp.home}/conf/ldap.properties'' állományt az alábbiak szerint<br />
<source lang="ini"><br />
...<br />
## Connection properties ##<br />
idp.authn.LDAP.ldapURL = ldap://ldap.intezmenyneve.hu:389<br />
idp.authn.LDAP.useStartTLS = false<br />
...<br />
idp.authn.LDAP.bindDN = cn=pelda-admin-felhasznalo,dc=intezmenyneve,dc=hu<br />
idp.authn.LDAP.bindDNCredential = jelszo<br />
<br />
# Format DN resolution, used by directAuthenticator, adAuthenticator<br />
# for AD use idp.authn.LDAP.dnFormat=%s@domain.com<br />
idp.authn.LDAP.dnFormat = uid=%s,ou=people,dc=intezmenyneve,dc=hu<br />
...<br />
</source></div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Szerkeszt%C5%91:Molnarp(AT)niif.hu&diff=3222Szerkesztő:Molnarp(AT)niif.hu2015-06-30T13:46:48Z<p>Molnarp(AT)niif.hu: </p>
<hr />
<div>[[Shib3IdpInstall | Shibboleth 3 IdP telepítése (Debian 8 + Jetty 9.2)]]<br />
<br />
[[Shib3IdpAuth | Shibboleth 3 IdP hitelesítés beállítása]]</div>Molnarp(AT)niif.huhttps://wiki.niif.hu/index.php?title=Shib3IdpAuth&diff=3221Shib3IdpAuth2015-06-30T13:46:10Z<p>Molnarp(AT)niif.hu: Új oldal, tartalma: „Shibboleth 3 Identity Provider (IdP) hitelesítés”</p>
<hr />
<div>Shibboleth 3 Identity Provider (IdP) hitelesítés</div>Molnarp(AT)niif.hu