Okoseszközök
Trendek és igények a modern szünetmentes tápegységek tervezésében
Megtalálni egy adatközpont vagy informatikai környezet megfelelő UPS berendezését sokrétű feladat.
A választás során figyelembe kell venni a hatásfokot, a meglévő környezetbe illeszthetőséget, a rendelkezésre állást, a rugalmasságot, az informatikai biztonságot és még sok más tényezőt.
A döntés meghozatalának alapjául a szervezet átfogó stratégiájának és a modernizációs beruházási lehetőségeknek kell szolgálniuk.
Van néhány nyilvánvaló tényező, amit érdemes mérlegelni, például hogy egyfázisú vagy háromfázisú UPS-re van szükség, attól függően, hogy számítógépek védelme a cél, vagy egy rack szekrénnyi szervert, hálózati- és adattároló eszközt kell áramkimaradás ellen védeni, esetleg egy kisebb méretű, vagy akár egy nagy adatközpontot kell szünetmentes energiával ellátni. Megfontolandó szempontok ezen kívül a rendelkezésre állás, a megbízhatóság, a forma, az egyszerű integrálhatóság és az ökológiai lábnyom. Mindezek azonban alapvető elvárások, egy szünetmentes tápegységnek ennél jóval többet kell nyújtania ahhoz, hogy intelligensebb energiagazdálkodást biztosítson és valós üzleti értéket képviseljen.
Az adatközpontok iránti egyre növekvő kereslet miatt az adatközpontoknak érthető módon egyre nagyobb kapacitást kell biztosítaniuk. Létezik azonban emellett egy másik tendencia is: a megnövekedett igényekre válaszul egyre többen ruháznak be a már meglévő infrastruktúra hatékonyabbá tételébe. A modern infrastruktúra kulcsfontosságú a sikeres, magas hatásfokú és költséghatékony működtetéshez. Érdemes ezért elindulni a virtualizált és energiahatékonyabb rendszerek irányába.
A régi berendezések cseréje, a létesítmények korszerűsítése, a környezetek virtualizálása és a nélkülözhetetlen automatizálás révén könnyebben csökkenthetők az üzemeltetés költségei, illetve az energia- és munkaerő-költségek. Nem csupán az alapvető informatikai eszközök cseréjébe érdemes beruházni, hanem az azokat ellátó elektromos rendszerek modernizálásába is. A virtualizáció és a növekvő teljesítménysűrűség, az energiahatékonyság, valamint a rugalmasság növelése iránti igények miatt a rack szekrények és a hűtési rendszer cseréje is indokolt lehet. Az elavult infrastruktúrák és adatközpont-kezelési technológiák nemcsak az energiahatékonyság és a számítási kapacitás szempontjából problematikusak, hanem nagyobb hibakockázatot is jelentenek, és az akadozó áramellátás miatt egyre több leállást okoznak.
Életfontosságú a virtualizáció
A modern, virtualizált informatikai rendszerekkel nagyobb számítási teljesítmény, tárolókapacitás és még sok egyéb előny tömöríthető az eddigieknél lényegesen kisebb helyen, míg a felhőalapú architektúrák növelik az erőforrások optimális kihasználását. Az a hatékonyság, megbízhatóság és magas rendelkezésre állás, amelyet egy modern rendszer nyújt, általában megéri a beruházási költségeket, különösen akkor, ha végig gondoljuk mennyi kiadással és bosszúsággal jár egy elavult eszközpark üzemeltetése.
Egy virtuális környezet energiagazdálkodásával kapcsolatban a legfontosabb szempont az UPS integrálhatósága a meglévő virtualizációs platformokba. Ha az UPS nem integrálható könnyen rendszerbe, akkor az nem több, mint egy fém doboz akkumulátorral.
Egy virtuális környezetben több szolgáltatás futtatható kevesebb hardveren, emiatt központi kérdés, hogy a hardver és az ott futó szolgáltatások mindig elérhetőek legyenek. A VMware, a Microsoft, a Citrix és a legtöbb szerver-virtualizációs szoftvergyártó lehetővé teszi a live migration funkciót, hogy terheléskiegyenlítés céljából, illetve karbantartás vagy üzemszünet esetén menet közben át lehessen helyezni a virtuális gépeket egyik gazdaszerverről a másikra. Azonban egyik ilyen rendszer sem tartalmaz beépített funkciókat áramkimaradások esetére, az áramellátó rendszerek pedig általában saját külön kezelőkonzolt használnak, így az informatikusok és az adatközpontok szakemberei kénytelenek két külön eszközt használni a virtualizáció és az energiagazdálkodás menedzsmentjéhez, ami csökkenti az infrastruktúra felügyeletének rugalmasságát, és adott esetben növelheti a hibákra adott válaszidőt.
Az Eaton Intelligent Power Manager ezzel szemben integrálható a főbb virtualizált platformokba, így lehetővé teszi az informatikusok és az adatközpontok szakemberei számára, hogy közös kezelőfelületről érjék el az IT és az energiaellátási rendszer alkotóelemeit. Emellett automatikusan aktiválni tudja a live migration funkciót, illetve hosszabb áramkimaradás esetén képes szabályosan leállítani a virtuális gépeket és a gazdagépeket is a klaszterben.
Ez azért fontos, mert a szerver virtualizáció jelentősen bonyolultabbá teszi az adatbiztonság megőrzését az áramkimaradások során. A kihívás abban áll, hogy egy virtuális adatközpontban áramkimaradás esetén nem csak a fizikai szervereket kell leállítani, hanem a virtuális gépeket is, amelyek azokon futnak. Ráadásul a folyamat lépéseit csak adott sorrendben lehet végrehajtani, miközben gyakran nem kicsit szorít az idő. Például a virtuális gépeket a fizikai eszközök előtt kell kikapcsolni, az alapvető eszközöket pedig, például a tartományvezérlőket és a megosztott tárolási tömböket az azoktól függő szerverek után.
Hatékonyságra tervezve
A növekvő kapacitásigények mellett az adatközpontokra nehezedik a növekvő energiaköltségek és a fokozott környezettudatosság miatti nyomás is. A szakemberek számára nagy kihívást jelent, hogy úgy csökkentsék az adatközpont energiafogyasztását, hogy az energiafogyasztás csökkentése ne menjen a megbízhatóság rovására.
A szünetmentes áramellátás értékét a haszna határozza meg. Egy UPS azzal járul hozzá az üzleti sikerhez, hogy biztosítja az üzletmenet folyamatosságát, rugalmasságát és a katasztrófa utáni helyreállítást, vagyis gondoskodik róla, hogy az üzleti tevékenység még hosszan tartó és váratlan áramkimaradások esetén is folytatódhasson. Az UPS által nyújtott rendelkezésre állás természetes – vagy legalább annak kellene lennie – így gyakran az különbözteti meg az egyik UPS-t a másiktól, hogy mennyire hatékonyak, és milyen mértékben képesek csökkenteni a teljes bekerülési és üzemeltetési költségeket (TCO-t).
A modern UPS-ek tervezésénél ugyancsak fontos szempont az alacsony TCO, és ezek az eszközök már rendelkeznek azokkal a technológiákkal, amelyek segítségével növelhető a hatékonyság és csökkenthetőek a karbantartási és szervizköltségek. Ebben az esetben többről van szó, mint pusztán az energiaköltség csökkentéséről. Az UPS egy eszköz a szakemberek kezében arra, hogy maximális áthidalási időket és megbízhatóságot érhessenek el, és egyúttal meghosszabbíthassák az üzemeltetett rendszer élettartamát.
Az Eaton jelentős befektetéseket eszközölt a technológiáiba, hogy a legfejlettebb, legmegbízhatóbb és legmagasabb hatékonyságot nyújtja a teljes UPS portfóliójában. Az Eaton szünetmentes tápegységeinek hatásfoka eléri az iparágban legmagasabb, 99%-ot. Emellett az UPS teljesítménysűrűsége 50% -nál nagyobb mértékben javult, ami azt jelenti, hogy a szünetmentes tápegységek kisebb méretűek lehetnek, így csökken a helyigényük. Ezzel egyidejűleg az alacsonyabb teljesítményveszteségek miatt az UPS által termelt hőveszteségek 40% -kal csökkentek, így csökkentve a hűtésszükségletet.
Ma már minden modern UPS rendelkezik azokkal a hatékonysági tényezőkkel, melyeknek segítségével az adatközpontok és az infrastruktúrák odáig fejlődtek, hogy olyan teljesítmény-hatékonyság (PUE) vált elérhetővé, amelyet már nehéz túlszárnyalni. Ugyanezen okból az UPS-ek tervezésüknél fogva környezetbarátak. Mára a kérdés inkább az lett, melyik UPS esetében térül meg legjobban a befektetés, és melyik az, amelyiknek a segítségével még tovább csökkenthető egy adatközpont ökológiai lábnyoma.
A megújuló energiák nem mindig konzisztensek, de a modern UPS-ek segítenek a kiszámíthatatlan események leküzdésében, biztosítva, hogy az adatközpont hozzájáruljon a megújuló energiák használatához és ezért ellentételezésben részesüljön. Ennek elsődleges példája az UPS, mint olyan tartalékáramforrás, amely kiegyensúlyozza a hálózati keresletet és kínálatot, ahol az adatközpontok azonnal reagálnak az igényekre, hogy a hálózati frekvenciát a megengedett határokon belül tartsák annak érdekében, hogy a hálózatüzemeltetők elkerüljék a széles körű áramkimaradásokat. Ez azt jelenti, hogy az adatközpontok hozzájárulnak ahhoz, hogy a hálózatok megújuló energiaforrásokat használjanak a villamosenergia-termeléshez, és maximalizálják az UPS-beruházásaikat azáltal, hogy ellentételezésben részesülnek a fel nem használt, illetve a hálózatba visszatáplált kapacitásért.
Konklúzió
Az adatközpontok számára a legfőbb prioritás, hogy a kritikus munkafolyamatok működése ne szakadjon meg áramkimaradás esetén, de a modern UPS-sel szemben ennél jóval messzemenőbbek az elvárások. Minimális elvárás, hogy egy UPS magas rendelkezésre állást biztosítson, legyen környezetbarát, jövőt álló és könnyen integrálható minden fizikai környezetbe, ezenkívül legyen hosszú élettartamra optimalizálva. Mindezek meghaladása az, ami megkülönböztet egy intelligens energiagazdálkodási rendszert egy egyszerű szekrény méretű fém doboztól.
A jelenlegi adatközpont-energiagazdálkodási trendek között a virtualizáció és a hatékonyság azok a tényezők, amelyek a legfontosabbak az áthidalási idők növelése és a TCO csökkentése szempontjából. A vállalatoknak úgy kell tekinteniük a fejlett energiagazdálkodási rendszerekre, mint a jól megtervezett virtualizációs környezet lényeges elemére, miközben keresniük kell azokat a funkciókat, amelyek segítségével csökkenthető a TCO, és növelhető a UPS hozzáadott értéke.
Ha többet szeretne megtudni az Eaton minőségi energiaelosztási és áramellátási megoldásairól, kérjük látogasson el a www.eaton.hu weboldalra. A legfrissebb hírekért látogasson meg minket a Twitter-en a @ETN_EMEA címen, vagy keresse fel az Eaton LinkedIn cégoldalát.
Okoseszközök
A Samsung az egymást követő hatodik évben is megőrizte helyét a gaming monitorok piacán
A Samsung bejelentette, hogy az International Data Corporation (IDC) legfrissebb adatai szerint már hatodik éve folyamatosan őrzi élvonalbeli pozícióját a gaming monitorok szegmensében.
A Samsung 2024-ben tovább erősítette pozícióját ebben a gyorsan fejlődő, teljesítményközpontú iparágban, 21 százalékos bevételi részesedést szerzett a globális gaming monitor piacon. A Samsung ugyanakkor már második éve őrzi élvonalbeli helyét az OLED-monitor szegmensben is, 34,6 százalékos részesedéssel – mindössze két évvel azután, hogy a vállalat bemutatta első OLED-modelljét.
„A Samsung helyzete a gaming monitorok piacán jól tükrözi az innováció iránti töretlen elkötelezettségünket és a mai játékosok igényeinek alapos ismeretét – mondta Hoon Chung, a Samsung vizuális kijelző üzletágának ügyvezető alelnöke. – Fontos szerepünk van a gaming jövőjében, legyen szó akár a lenyűgöző 3D élményekről vagy a forradalmi OLED teljesítményről.”
A Samsung növekedésének hátterében a kiemelkedő teljesítményű Odyssey széria áll, amely számos modellel emeli új szintre a lebilincselő játékélményt.
- Odyssey 3D (G90XF modell): Ez az új, 27 colos monitor, úttörő 3D gaming élményt kínál, amelyhez nem szükséges külön szemüveg felvétele. A fejlett szemkövető technológia és a Samsung saját fejlesztésű lencserendszere élethű, nagy felbontású 3D képet hoz létre. Az eszköz a Reality Hub segítségével zökkenőmentesen konvertálja a képet 2D-ről 3D-re, a 165 Hz-es képfrissítési frekvenciának és az ultragyors, 1 ms GTG (szürkétől szürkéig) válaszidőnek köszönhetően pedig új értelmet ad az interaktivitásnak és a realizmusnak.
- Odyssey OLED G8 (G81SF modell): Egy csúcstechnológiás, 27 vagy 32 colos 4K 240 Hz-es OLED gaming monitor, amely a fejlett QD-OLED technológiának köszönhetően kivételes színpontosságot és elképesztő teljesítményt biztosít. A kategóriájában az egyik legmagasabb pixelsűrűséggel, 0,03 ms GTG (szürkétől szürkéig) válaszidővel és a Samsung OLED Safeguard+ beégés elleni védelemmel rendelkezik.
- Odyssey OLED G6 (G60SF modell): Az Odyssey OLED G6 egy 27 colos, QHD QD-OLED monitor, rendkívül gyors – 500 Hz-es – képfrissítési frekvenciával és 0,03 ms GTG (szürkétől szürkéig) válaszidővel. Az Odyssey G6 a kompetitív játékosok számára is elhozza a Samsung innovációit, elit sebességet és reszponzivitást kínálva a versenyeken induló gamereknek és e-sportolóknak.
Az új generációs termékcsalád alapja a Samsung saját fejlesztésű Quantum Dot OLED technológiája, amely minden látószögből javítja a színhelyességet, a kontrasztot és a fényerőt. Ezzel nagyszerű választás lehet azoknak a játékosoknak, akik lenyűgöző képminőségre és csúcsteljesítményre vágynak. A legújabb monitorok teljesítményét még tovább növeli az NVIDIA G-SYNC kompatibilitás és az AMD FreeSync™ Premium Pro támogatás, amelyek minimálisra csökkentik a mozgás megakadását, valamint a képszakadás és képremegés jelenségét, így páratlan OLED játékélményt biztosítanak.
Az Odyssey 3D, az Odyssey OLED G8 és az Odyssey OLED G6 gaming monitorok már elérhetők Magyarországon.
A Samsung gaming monitor-sorozatáról további információk a https://www.samsung.com/hu/ weboldalon érhetők el.
További friss híreket talál az IoTmagazin főoldalán! Csatlakozzon hozzánk a Facebookon is!
Okoseszközök
Kutyaharapást szőrével – AI javítja az AI által írt kódot
A mesterséges intelligencia mára szinte alapvető eszköz lett a fejlesztőknél.
A felmérések szerint szinte alig akad már olyan szakember, aki ne használna AI-t a kódok írásánál. Ugyanakkor az automatizált folyamat hatására sok kód rejt hibákat, amelyek a leggyakoribb és legsúlyosabb sebezhetőségek közé tartoznak. Az OpenText szakértői szerint a hibák azonosításában és javításában épp az AI nyújthat megfelelő segítséget, méghozzá fejlett alkalmazásbiztonsági eszközökbe ágyazva, amelyek automatizáltan végzik ezeket a feladatokat.
A mesterséges intelligencia mostanra a szoftverfejlesztők mindennapi munkaeszközévé vált: egy elemzés szerint 2024-ben a szakemberek több mint 80 százaléka használt AI-t a kódok készítésénél, és ez a szám azóta minden bizonnyal csak tovább emelkedett. Ugyanakkor az automatizált kódgenerálás nem mentes a sebezhetőségektől: egy kutatás rámutatott, hogy a Copilot által javasolt kódok 40 százaléka tartalmazott olyan sérülékenységet, amely szerepel a MITRE CWE Top 25 listáján, vagyis a leggyakoribb és legsúlyosabb biztonsági rések közé tartozik. Más vizsgálatok szerint az AI segítségével létrehozott kódok 62 százalékában fordult elő valamilyen tervezési hiba vagy ismert biztonsági hiányosság.
Ezek az arányok rávilágítanak annak veszélyére, hogy a gyors innováció önmagában nem elegendő, ha nem építjük be a biztonságot minden szinten. Megnehezíti azonban a helyzetet, hogy a GenAI‑fejlesztés sebessége messze meghaladja a hagyományos biztonsági ellenőrzések kapacitását. Ezért olyan új megközelítésekre van szükség, amelyekkel automatizáltan és folyamatosan vizsgálhatók az AI‑generált kódok.
Sárkány ellen sárkány
Érdekes módon épp a mesterséges intelligencia segíthet ennek a problémának a megoldásában, hiszen az AI-ra támaszkodó alkalmazásbiztonsági eszközök képesek kombinálni a gépi tanulás eredményeit a szakértői információkkal, így pontosabban felismerik a sebezhetőségeket. Ezek az eszközök olyan munkafolyamatokat kínálnak, amelyek szem előtt tartják a fejlesztők igényeit, és könnyedén illeszkednek az IDE környezetekbe, illetve CI/CD rendszerekbe. Emellett zökkenőmentesen működnek felhőnatív és hibrid környezetekben is, így számos különféle vállalati architektúrában alkalmazhatók.
Azok a szervezetek, amelyek igénybe veszik ezeket a modern eszközöket, a fejlesztési ciklus korábbi szakaszaiban azonosíthatják a sebezhetőségeket, és gyorsabban javíthatják őket. Ezzel komoly összegeket takaríthatnak meg, hiszen minél később derül fény egy sérülékenységre a fejlesztés során, annál magasabb a javítás költsége. Az olyan fejlett megoldások, mint például az OpenText termékei a piaci átlaghoz képest rendkívül kevés hamis riasztást küldenek, és rangsorba is állítják a javításra váró hibákat fontosság szerint. Így a szakemberek az igazán hasznos tevékenységekre koncentrálhatnak, és a megfelelőség fenntartása, valamint a kockázatok csökkentése is egyszerűsödik. Szorosabbá válik továbbá az együttműködés a fejlesztői és az alkalmazásbiztonsági csapatok között, ezáltal a vállalatok gyorsan és biztonságosan adhatják ki az AI‑alapú alkalmazásokat.
Minden hasznos eszköz egy helyen
Az OpenText AI-ra támaszkodó alkalmazásbiztonsági teszteszközöket tartalmazó portfóliója ezt a megközelítést támogatja olyan komponensekkel, amelyek célzottan szolgálják ki a modern igényeket. A Static Application Security Testing (korábban: Fortify) azonosítja a sérülékenységeket a kódban, a futás közben jelentkező hibákat pedig a Dynamic Application Security Testing ismeri fel a GenAI-alapú alkalmazásokban. Az AppSec Aviator generatív AI-technológiákra, például a Claude LLM-re támaszkodva csökkenti a téves riasztások számát, és automatikusan készít javaslatokat a sebezhetőségek javításához. A Core Software Composition Analysis (SCA) pedig intelligens elemzéssel támogatja a szakembereket a biztonságos open source csomagok kiválasztásában. Mindezek együtt lehetővé teszik, hogy a szoftverek biztonságával ne utólag foglalkozzanak a szervezetek, hanem a fejlesztési folyamatba integrált elemként.
További friss híreket talál az IoTmagazin főoldalán! Csatlakozzon hozzánk a Facebookon is!
Okoseszközök
A Google már nem keres – gondolkodik! Az AI forradalom felforgatja a szabályokat
A mesterséges intelligencia (AI) az elmúlt két évben forradalmi változásokat hozott a keresőmotorok világában.
A Google és más platformok működése már nem csupán kulcsszavakra épül, hanem a felhasználói szándék mélyebb megértésére és a háttérben futó AI-lekérdezésekre is épít. Az INTREN, Magyarország egyik vezető digitális ügynökségének szakértői elemezték, milyen hatása lesz az AI-nak a keresési élményre, a SEO-ra és a hirdetési teljesítményre.
A kulcsszavaktól a szándékig: új keresési paradigma
Az AI alapjaiban formálta át a keresőmotorok működését. „A Google ma már nem csak azt elemzi, hogy mit írunk be, hanem azt is, hogy miért. Ez a kontextuális megértés sokkal relevánsabb, személyre szabottabb találatokat eredményez, ami a tartalomgyártástól a technikai SEO-ig minden területre kihat” – emeli ki Bakóczy Bence, az INTREN Ad Operations üzletág vezetője. Varju János a Data & Tech üzletág vezetője hozzáteszi: a Google újítása, az AI Overview (AIO), már összefoglaló formában jeleníti meg a válaszokat az organikus találatok fölött. Ez a megoldás növeli a keresések számát, de csökkenti az átkattintások arányát, különösen az információszerzésre irányuló tartalmak esetében. Ez az AI organikus teljesítményre gyakorolt legfőbb hatása, amit „szétválás” jelenségeként is említenek. „Az átkattintási arány azért csökken, mert sok felhasználó már az AIO összefoglalókból tájékozódik. Ugyanakkor a brandelt kulcsszavakra érkező forgalom növekedése újfajta láthatóságot jelent, még ha a konverziós arány alacsonyabb is” – hangsúlyozza a szakértő.
Kik profitálnak az AI-forradalomból?
Várhatóan azok a cégek járnak jól a jövőben, amelyek gyorsan adaptálódnak és nagy mennyiségű adattal rendelkeznek. „Az e-kereskedelmi vállalatok, a szolgáltató szektor és a komplex szolgáltatás kínáló B2B cégek tudják leginkább kihasználni az AI-ban rejlő lehetőségeket a pontosabb célzás és személyre szabott kommunikáció révén” – véli Bakóczy Bence. Varju János hozzáteszi: „Az erős, hiteles márkák előnyben részesülnek az AI keresőkben. Azok a cégek, amelyek strukturált, kérdés-válasz alapú tartalmat, statisztikákat és saját adatokat kínálnak, könnyebben bekerülnek az AI által generált válaszokba.”
A Google jövője: AI ügynökök és új metrikák
A Google fejlesztései egyértelműen az AI mélyebb integrációját célozzák. A cél az, hogy a hirdetési folyamatot teljesen automatizálják, a hirdetőknek pedig csak a stratégiai inputokat kelljen megadniuk. Az Intren szakértői rámutatnak: A Google folyamatosan fejleszti az AI alapú keresési élményt az AI Overview (AIO) és az AI Mode bevezetésével – Magyarországon október 8-án vezették be – , ami a Geminivel egy interaktív, csevegő alapú keresést tesz lehetővé. Készülnek arra, hogy a jövőben az AI ügynökök kommunikáljanak egymással (Agent 2 Agent protocol) és egy közös AI nyelv jöjjön létre (Model context protocol). Ezen felül a Google ígérete szerint még idén új AI Overview-t figyelő metrikákat vezet be a Search Console-ba.
Felkészülés az AI-álló jövőre
Az AI által kiváltott változások szektor specifikusak: az információszerzésre épülő iparágakban (pénzügy, biztosítás, telekommunikáció, utazás) már most érezhető a hatás, de rövid időn belül minden szektort elérnek. A versenyképesség megőrzéséhez a cégeknek új szemléletre van szükségük. Bakóczy Bence szerint az integrált digitális stratégia, az organikus és fizetett csatornák összehangolása, valamint a saját adatok (pl. CRM) hatékony felhasználása kulcsfontosságú. „Mi abban segítjük ügyfeleinket, hogy rugalmas, AI-vezérelt kampánystratégiákat építsünk, amelyek gyorsan alkalmazkodnak a piaci változásokhoz” – összegez az INTREN szakértője. Varju János hozzáteszi: a brandépítés, a tartalmi kiválóság és a technikai optimalizálás elengedhetetlen – ez pedig egy mindset váltást is igényel.
További friss híreket talál az IoTmagazin főoldalán! Csatlakozzon hozzánk a Facebookon is!
-
Zöld2 hét ago
Kiszárad a Balaton? – Az AI mondja meg?
-
Szórakozás2 hét ago
November 6-án indul a magyar mozikban a Bölöni-film
-
Gazdaság2 hét ago
Új korszak jön: nyilvánosak lesznek a fizetések az álláshirdetésekben
-
Szórakozás2 hét ago
Flipperláz Budapesten: októberben a Ráday utcára figyel Európa
-
Ipar2 hét ago
A tűzvédelem új kihívásai 2025-ben
-
Okoseszközök2 hét ago
„A jövő kényelmétől elvárás az intelligencia” – Keleti Arthur jövőkutató szerint a jövő
-
Tippek2 hét ago
Így oldható az őszi feszültség a munkahelyeken
-
Ipar2 hét ago
Papír helyett digitalizáció: nemzetközi trendekhez illeszkedő megoldásokkal spórol több tonna papírt a SPAR




