• +48 58 350 18 00
  • truecom@truecom.pl

Author Archive troglli

Funkcje macOS Ventura, których nie znajdziesz na Windows 11

https://android.com.pl/tech/534305-funkcje-macos-ventura-windows-11/

Debata Windows kontra macOS toczy się od wielu lat. Powiedzmy sobie szczerze, oba systemy operacyjne zapewniają podobną funkcjonalność. Jednak jest wystarczająco dużo różnic, aby przyciągnąć ludzi z jednego obozu do drugiego. Wszystko sprowadza się to do tego, co dla użytkownika jest najważniejsze. Zobaczmy najnowsze funkcje systemu Apple i  sprawdźmy, czy Windows 11 ma podobne rozwiązania.

macOS Ventura kontra Windows 11

macOS Ventura

macOS Ventura trafił na komputery Mac 24 października tego roku. Z kolei Windows 11 zadebiutował rok temu, a pierwszą aktualizację otrzymał miesiąc temu. Apple oraz Microsoft mają zupełnie inną politykę wydawania kolejnych wersji oprogramowania dla komputerów. Firma z Cupertino co roku wydaje nowe wersje macOS pod różnymi nazwami, co kilka miesięcy je aktualizując. Poniżej przyglądamy się nowym funkcjom macOS Ventura, których nie znajdziecie na Windows 11.

Używanie iPhone jako kamery komputera

macOS Ventura

Komputery Mac, iPady i iPhone’y świetnie ze sobą współpracują, ale macOS Ventura dokłada do tego kolejną funkcję, która jeszcze ściślej łączy te urządzenia nazwaną Kamera Continuity. Narzędzie to umożliwia wykorzystanie z zaawansowanego systemu kamer na iPhonie jako kamery internetowej dla komputera Mac. Funkcja daje możliwości nieosiągalne dla żadnej kamery internetowej. Działa z przewodem lub bez i wystarczy, że zbliżysz jedno urządzenie do drugiego, a Mac od razu przełączy się na aparaty iPhone’a jako źródło obrazu. Dzięki kamerze Continuity tryb portretowy działa teraz na każdym Macu, rozmywając tło w kadrze, a wyostrzając pierwszy plan – czyli nas. iPhone może działać też jak mikrofon do Maca. Rewelacyjną opcją jest Dysk View. Korzystając z tej funkcji i ultraszerokokątnego aparatu iPhone’a, możesz w trakcie wideokonferencji pokazać rozmówcom powierzchnię swojego biurka. Desk View okazuje Twoją twarz i biurko jednocześnie – jak kamera na wysięgniku.

Współpraca w ramach ekosystemu Apple działa naprawdę doskonale, a inni producenci mogą tylko pozazdrościć takich rozwiązań. W tym roku firma z Cupertino w przypadku oprogramowania macOS Ventura idzie krok dalej i daje świetne narzędzie w przypadku pracy zdalnej czy prezentacji. Rozwiązania zbliżonego do Kamera Continuity na Windows 11 nie znajdziecie.

Stage Manager, czyli organizacja pracy

macOS Ventura

To nowa funkcja dostępna zarówno w systemie macOS Ventura, jak i iPadOS 16, która zmienia sposób zarządzania otwartymi oknami. Wyświetla miniatury wszystkich otwartych programów w kolumnie po lewej stronie ekranu, ułatwiając przełączanie między nimi. Możesz skupić się na aplikacji, w której pracujesz, bez włączania widoku pełnoekranowego. Będzie wyraźnie widoczna na środku ekranu w rozmiarze umożliwiającym jej wygodną obsługę. Stage Manager zintegrowany jest ze Spaces. Możesz tworzyć oddzielne przestrzenie na materiały dotyczące różnych zainteresowań lub na aplikacje, z których chcesz korzystać w trybie pełnoekranowym. Szybki dostęp do okien i aplikacji. Okno aplikacji, której akurat używasz, ustawia się w centrum widoku, a pozostałe aplikacje i okna po lewej stronie, w kolejności, w jakiej były ostatnio używane. 

W Windowsie nie mamy żadnej podobnej funkcji. Jedynym zbliżonym rozwiązaniem jest funkcja przyciągania okien. Umożliwia ona otwarcie kilku aplikacji na jednym ekranie w różnych konfiguracjach. Podobne rozwiązanie dzielenia ekranu dostępne jest także na macOS

Spotlight, czyli jeszcze lepszy sposób wyszukiwania

macOS Ventura

Wyszukiwarka na komputerach Mac zawsze działała świetnie, ale w tym roku Apple dodało do macOS Ventura kilka świetnych nowych funkcji. Wykorzystując informacje z obrazów w Zdjęciach, Wiadomościach, Notatkach i Finderze, funkcja Spotlight umożliwia wyszukiwanie na podstawie lokalizacji, sceny, a nawet wybranych elementów obrazu. Za pomocą Spotlight możesz wykonać także wiele czynności – na przykład ustawić minutnik lub tryb skupienia, sprawdzić tytuł piosenki za pomocą Shazam czy uruchomić dowolny skrót. Wyszukiwarka umożliwia teraz wyszukiwanie zdjęć ludzi, zwierząt, zabytków i innych obiektów w Internecie. Żeby zobaczyć pliki w Szybkim przeglądzie, wystarczy nacisnąć spację. 

O takich możliwościach użytkownicy Windows 11 mogą pomarzyć. System macOS miał dobrze działającą systemową wyszukiwarkę wtedy, kiedy Windows jeszcze w ogóle jej nie miał. Rozwiązanie w systemie Microsoftu jest niestety toporne, prowadzi do dziwnych odnośników, nie pokazuje w zasadzie niczego w samej aplikacji. 

Handoff w FaceTime

macOS Ventura

Dzięki funkcji Handoff pracę rozpoczętą na jednym urządzeniu można wznowić na następnym pobliskim urządzeniu w miejscu, w którym została przerwana. Teraz funkcja działa w aplikacji FaceTime na macOS Ventura. Możemy płynnie przenieść trwającą rozmowę FaceTime z Maca na iPhone’a lub iPada i z powrotem. Razem z rozmową na nowe urządzenie przenosi się także połączenie ze słuchawkami Bluetooth. Podczas pracy grupowej w Plikach, Finderze, Keynote, Numbers, Pages, Notatkach, Przypomnieniach, Safari lub obsługiwanych aplikacjach innych firm połączysz się z całym zespołem przez FaceTime jednym kliknięciem. W minionych latach firma Tima Cooka wprowadziła także Uniwersalną kontrolę, czyli używanie jednej myszy, trackpada czy klawiatury z kilkoma urządzeniami Apple.

W przypadku systemu Windows 11 podobne rozwiązanie działa tylko w Microsoft 365. W przypadku oprogramowania Apple przeniesienie pracy na inne urządzenia w trakcie jej trwania i kontynuacja działa na wielu aplikacjach. Do tych współdziałających z funkcją Handoff należą Mail, Mapy, Safari, Przypomnienia, Kalendarz, Kontakty, Pages, Numbers, Keynote i wiele innych aplikacji innych producentów.

Źródło: Apple

Seagate Exos 2X18 to najszybsze na świecie dyski HDD – TELEPOLIS.PL

https://www.telepolis.pl/tech/sprzet/dysk-talerzowy-hdd-seagate-exos-2×18-specyfikacja

Lider na rynku dysków twardych po cichu rozszerzył swoje portfolio. Seagate przygotował nowe nośniki Exos 2X18 oferujące topową wydajność.

W ostatnich latach mogliśmy obserwować boom na nośniki półprzewodnikowe. SSD stosowane są już nie tylko przez entuzjastów, ale trafiają również do maszyn biurowych i konsol. Trudno się temu dziwić, gdy oferują znacznie wyższą wydajność, są całkowicie bezgłośne, a przy tym poprawiają komfort pracy.

Seagate Exos 2X18 to prędkości nawet do 554 MB/s

I chociaż stare dobre HDD są już w odwrocie, to nie znaczy jeszcze, że kompletnie zniknęły z rynku. Dyski talerzowe nadal chętnie wykorzystywane są w centrach danych, gdzie liczy się głównie pojemność. A tak się składa, że Seagate wypuścił nowe, pojemne i szalenie szybkie HDD.

Rodzina Seagate Exos 2X18 wzbogaciła się o cztery nowe modele. Mowa o wariantach o pojemności 16 lub 18 TB oraz z interfejsem SATA 6 Gbps lub SAS 12 Gbps. Podobnie jak wcześniejsze HDD z tej serii mamy tutaj do czynienia z podwójnym serwomechanizmem, co znacząco wpływa na wydajność.

Seagate Exos 2X18 w wersji SATA oferuje prędkości do 554 MB/s, zaś wariant Seagate Exos 2X18 SAS to do 545 MB/s. Wszystkie cztery dyski oferują średnie opóźnienia na poziomie 4,16 ms oraz odczyt/zapis sekwencyjny (4K QD16) na poziomie 304 i 560 IOPS.

Oczywiście rozbudowana sekcja głowicy ma również minusy. Topowa wydajność okupiona jest wyższym poborem mocy. W spoczynku to do 7,8/8 W (SATA/SAS), a pod obciążeniem do 13,5/12,8 W (SATA/SAS).

Nośniki Seagate Exos 2X18 są tworzone z myślą o centrach danych. Tym samym mogą one pracować nawet 24/7 co potwierdza 5-letnia gwarancja producenta. Sugerowane ceny nie zostały zdradzone – wszystko zależy od wielkości zamówienia. Na razie nie wiadomo czy opisywane HDD trafią do sprzedaży detalicznej.

Uwaga całego IT skupiona na AMD. To epycki nokaut

https://spidersweb.pl/2022/11/amd-epyc-koszt.html

AMD właśnie zaprezentowało układy Epyc czwartej generacji, czyli chipy przeznaczone dla centrów danych, centrów obliczeniowych, serwerów i wysokowydajnych stacji roboczych. Dlaczego jest to wydarzenie warte odnotowania? Owe chipy stanowią bowiem obietnicę zmiany układu sił na całym rynku IT. I szansę na to, że po drodze na nim w tych trudnych czasach nie zbankrutujemy.

Na początku chodziło o wizerunek. Wstyd było dużej korporacji nie prowadzić działań mających zmniejszyć emisję gazów cieplarnianych, czy nie wykorzystywać swoich środków do innej formy odnawiania środowiska. Z czasem zamieniło się to w politykę: realne zachęty finansowe (i sankcje karne) promujące firmy proekologiczne skłaniały do wprowadzania stosownych reform w działalności. Dziś jest to już pragmatyzm: energia staje się coraz droższa, więc korporacje jak tylko mogą szukają tanich i odnawialnych jej źródeł. A także próbują redukować jej zużycie jak tylko to możliwe.

Powyższy akapit jest prawdopodobnie oczywisty dla większości czytelników. Cywilizacja ludzi ma ekologiczno-polityczno-energetyczny problem, który w razie zaniedbania może doprowadzić do globalnej katastrofy. W tym, w ujęciu krótkoterminowym, do bankructwa licznych przedsiębiorstw. Między innymi z uwagi na rosnące ceny energii i brak skutecznej strategii na redukowanie tych kosztów. Nic więc dziwnego, że każde nowe rozwiązanie, które jest sprawniejsze energetycznie od poprzednika, z miejsca rodzi zainteresowanie.

Dziś niemal każda większa firma korzysta z zaawansowanej informatyki.

Według danych z czerwca bieżącego roku centra danych konsumują rocznie około 400 terawatogodzin, co stanowi 2 proc. światowej konsumpcji elektryczności. Serwery odpowiadają też za 3 proc. rocznego śladu węglowego, czyli za tyle samo, co cała branża lotnicza. Centra danych to tkanka nowoczesnej informatyki. To za ich sprawą funkcjonują popularne usługi online i aplikacje konsumenckie. Stanowią one także fundament działalności niemal każdej większej firmy. Każde włączenie piosenki na Spotify to komunikacja z centrum danych. Każdy post na Instagramie pochodzi z centrum danych. Nawet niniejszy artykuł jest generowany przez centrum danych partnera Spider’s Web.

Wykorzystanie centrów i popyt na nie będzie wyłącznie rosnąć. To oznacza, że pracować będzie coraz więcej i więcej układów scalonych, oferujących możliwość obsłużenia coraz większej liczby użytkowników przy coraz wyższym standardzie – ale konsumujących coraz więcej coraz droższej energii. To zaczyna być problemem, na którego rozwiązanie nie mamy zbyt wiele czasu.

Branża serwerowa zaczęła romansować z procesorami o architekturze ARM. Stosowane w niemal wszystkich telefonach i tabletach chipy ARM w istocie cechują się najlepszą w branży sprawnością energetyczną. Problem w tym, że ARM zapewnia inne wyzwania, nie tylko związane z brakiem zgodności z powszechną w branży architekturą x86. I poza imponującym superkomputerem Fugaku, dominującym w stosownych rankingach, ARM funkcjonuje raczej w chmurowej niszy i na razie ma niewielkie szanse na przejście do mainstreamu.

Właściwy kierunek ewolucji wyczuło AMD. Układy Epyc są nadzwyczaj wydajne, ale nie to ma być ich największym atutem.

AMD Epyc czwartej generacji. 576 rdzeni Zen 4 w jednym kadrze.

AMD Epyc czwartej generacji jest układem bardzo unikalnym na rynku chipów serwerowych, ale o dziwo jego budowa ani architektura nie są szczególnie zaskakujące. Jest to bowiem owoc bardzo szerokiej strategii, pod którą przez ostatnie lata firma szykowała grunt i która obejmuje zarówno układy konsumenckie i do przetwarzania lokalnego, jak i te serwerowe. Jej najważniejszym elementem prawdopodobnie jest proces technologiczny. Po pierwsze, za sprawą współpracy z firmą AMD, znacznie precyzyjniejszy (5 nm) od tego, którym się posługuje rynkowy lider, jakim jest Intel. Po drugie, za sprawą chipletowej konstrukcji, która zapewnia AMD unikalną przewagę w formie możliwości relatywnie łatwego przeprojektowywania układu scalonego pod klienta z konkretnymi potrzebami.

AMD Epyc, czyli procesor projektowany z myślą o kosztach operacyjnych

Jaki jest sales pitch, czyli największy argument mający przekonać klientów do procesorów AMD? Najlepszą ilustracją jest powyższe zdjęcie z prezentacji dr Lisy Su, prezes AMD, której Spider’s Web miał okazję wysłuchać. Układy Epyc czwartej generacji są nie tylko szybsze od tych poprzedniej generacji oraz od odpowiadających im mniej więcej cenowo konkurentów. Są przede wszystkim znacznie sprawniejsze energetycznie. Według obietnic AMD postawienie na Epyc 4 to mniejsza liczba szybszych i zużywających mniej energii serwerów niż rozwiązanie budowane na chipach konkurencji.

AMD Epyc 4. Czegoś takiego w istocie jeszcze nie było.

Lisa Su prezentująca układ Epyc 4

KontoGdy osiem lat temu dr Lisa Su obejmowała rolę prezesa AMD, firma była w opłakanym stanie. Dziś walczy o pozycję lidera w niemal wszystkich segmentach rynkowych, na których d`ziała. Swoje ponowne narodziny AMD zawdzięcza w dużej mierze wizji swojej błyskotliwej, nowej prezes. Jedną z ważniejszych decyzji dr Su było całkowite zaniechanie samodzielnej produkcji układów scalonych.

Redukcja AMD do roli niemalże biura projektowego była bez wątpienia ryzykowna. Firma stała się bowiem zdana na łaskę partnerów zajmujących się produkcją układów scalonych. To jednak sprawiło, że firma nie tylko zrzuciła balast obowiązków związanych z utrzymaniem i rozwojem fabryk i procesów technologicznych, ale także na dodatek zapewniła jej stały dostęp do tych najnowocześniejszych.

AMD Epyc 4 deklasuje poprzednika i konkurencję, niezależnie od przyjętego benchmarku

Podczas gdy największy konkurent na rynku procesorów, firma Intel, nadal produkuje swoje procesory w 10-nanometrowym procesie technologicznym SuperFIN, AMD korzysta z procesów technologicznych i fabryk firmy TSMC, aktualnie oferujących proces 5 nm. Im precyzyjniejszy proces, tym więcej tranzystorów można zmieścić na danej powierzchni. Im wyższa gęstość tranzystorów, tym zazwyczaj wyższa sprawność energetyczna. Co przekłada się albo na wyższą wydajność, albo na niższe zużycie energii, albo na korzystniejszy kompromis pomiędzy oboma.

Co mają wspólnego procesory serwerowe Epyc z graczami czy użytkownikami komputerów?

Sprawność energetyczna układu scalonego to dziś kluczowy parametr.

Nie jest niczym nowym fakt, że producenci i projektanci procesorów, chcąc uprościć produkcję i zwiększyć atrakcyjność cenową produktów, wykorzystują te same fundamenty chipów, modyfikując je pod różne zastosowania. Serwerowy Intel Xeon ma wiele wspólnego z Intel Core, dlatego też nie powinno nikogo dziwić, że AMD Epyc łączy wiele z AMD Ryzen.

KontoTym niemniej teraz jasno zaczyna być widoczny wielki technologiczny plan AMD, pozwalający do każdej rodziny procesorów dodawać nowe moduły tak szybko, jak tylko ma to sens. Podobnie jak serca PlayStation 5, laptopów z Ryzenem czy stacji roboczych z Threadripperem, również i sercem Epyców jest schemat Zen, aktualnie w swojej czwartej rewizji. Podobnie jak Ryzeny, również i Epyci są produkowane na tych samych, 5-nanometrowych liniach produkcyjnych. I z dokładnie tych samych względów zaczynają oferować parametry operacyjne, które u odpowiedników od Intela przestają być możliwe. Całość domyka wspomniana chipletowa konstrukcja, czyli duże ułatwienie projektowe, pozwalające na szybkie wdrożenie innowacji z jednej linii projektowej do drugiej.

Innymi słowy, Epyc może dziedziczyć zalety Ryzena, a Ryzen Epyca. Usprawnienia w chipach dla graczy mogą mieć, jeśli ma to sens, błyskawiczne przełożenie w chipach dla racków stanowiących budulec centrów danych. I odwrotnie, jeśli tylko ma to inżynieryjny bądź ekonomiczny sens. Widać to w najnowszych Epycach.

AMD Epyc 4 kontra konkurencja

Taniej, ale za to szybciej. AMD Epyc 4 to obietnica, że koszt działania Internetu i usług online będzie rósł w niższym tempie.

AMD przez pewien czas wręcz było nieobecne na niezwykle lukratywnym rynku chipów serwerowych. Intel go z niego skutecznie wykurzył, między innymi za sprawą znacznie większej mocy produkcyjnej, ale też z uwagi na fakt, że chipy AMD Opetron do najbardziej konkurencyjnych nie należały. Firma przez wiele lat ów rynek ignorowała, będąc prawdopodobnie zbyt słabą, by móc wprowadzić do niego cokolwiek sensownego.

Epyc wykorzystuje wiele zalet układów Ryzen

Ignorowanie tego rynku to jednak w dzisiejszych czasach skazywanie się na agonię. To w centrach danych są największe pieniądze i to właśnie na tych klientach firmy takie jak Intel czy Nvidia budują swoją przyszłość. Bez pieniędzy z tego rynku było tylko kwestią czasu, kiedy AMD straciłoby możliwość rywalizacji na rynku konsumenckim. Prezes Su z pewnością zdawała sobie z tego sprawę. Konsumenckie chipy nowego AMD od samego początku były projektowane z pamięcią, że kiedyś pokrewne im konstrukcje będą pracować w serwerach.

Pierwszym efektem tego planu były mało imponujące układy Epyc 7001. Jednak już w 2019 r. to Epyc 7002 budziły największe zainteresowanie klientów. Nic dziwnego, bowiem były budowane na tych samych nowoczesnych liniach produkcyjnych, co gamingowe chipy AMD – podczas gdy serwerowa oferta Intela nadal była budowana w 14-nanometrowej technologii. Teraz odbyła się premiera układów Epyc czwartej generacji, które niebawem dostępne będą u wiodących dostawców chmur publicznych i w licznych serwerach.

Mówienie tu o rewolucji byłoby stanowczym nadużyciem. Epyc 4 nie oferuje żadnego przełomowego technicznego rozwiązania i korzysta z technologii całkiem nieźle już znanych. Ale przez to, że robi to jako jedyny, deklasuje konkurencję nie tylko tym jak szybko przelicza dane, ale też, o ile mniej zużywa energii i o ile tańsze jest jego odpowiednie schłodzenie.

Epyc to nie tylko więcej rdzeni w jednym układzie – ale też sprawniejsze energetycznie, a więc i szybsze rdzenie

Nowoczesny proces technologiczny umożliwił AMD i TSMC upakowanie aż 96 rdzeni CPU Zen 4 do jednego układu scalonego, którym towarzyszą fizyczne rdzenie konkretnych zastosowań, w tym chociażby do akceleracji obliczeń związanych z szyfrowaniem danych w ramach technologii AMD Infinity Guard. Układy pracują z pamięcią DDR5 i wykorzystują szynę danych PCIe Gen 5. Zużywają przy tym od 200 W (16-rdzeniowa wersja) do 400 W (96-rdzeniowa) energii.

Dodatkowe usprawnienia to, między innymi, rozszerzona pamięć podręczna, dodatkowy zestaw instrukcji, czy obsługa rozszerzania pamięci przez CXL 1.1+. Lista zmian jest bardzo długa. Liczą się jednak efekty, a AMD zapewniło bardzo szeroki przekrój testów i benchmarków. Większość wyników potwierdza ogólny przekaz: Epyc 4 jest (typowo) 2,8 raza szybszy od odpowiadającego mu Epyca 3 przy (do) 54 proc. zmniejszeniu zużycia energii. Układy dowolnego konkurenta są droższe w zakupie, droższe w utrzymaniu oraz… wolniejsze.

Strategia AMD niesie za sobą ogromne ryzyko, a całość i tak może wygrać Intel. Pointa jest zupełnie inna.

Liczba rekordów świata, jakie AMD Epyc 4 pobiły już podczas testów bez wątpienia zrobi wrażenie na potencjalnych klientach.

AMD jest nieustannie zależne od swojego chińskiego partnera, co może oznaczać w czasie kryzysu kłopoty innego rodzaju. Wystarczy sobie przypomnieć niedawne problemy z dostępnością konsol PlayStation 5 i Xbox Series X w sklepach. Te częściowo wynikały z niedoborów układów scalonych współprojektowanych przez AMD i produkowanych przez TSMC. Bo TSMC na skutek nadzwyczajnego popytu na układy scalone mogło zdecydować, że pierwszeństwo tym razem ma inny klient. Taki jak Apple, który u TSMC produkuje miliony chipów do iPhone’ów miesięcznie. W razie jakiegokolwiek rynkowego zawirowania AMD traci zdolność zapewniania podaży. Intel, mając własne fabryki i pełną nad nimi kontrolę, to dla dostawców pokroju Oracle Cloud, Google Cloud i Microsoft Azure pewniak. Zawsze wywiąże się z zamówienia.

Tyle że przedstawiciele Microsoftu, Oracle’a i Google’a pojawili się razem na premierze AMD Epyc 4, deklarując rychłą dostępność instancji chmur przez nich operowanych bazujących właśnie na układach AMD. Bo już abstrahując od tych wszystkich szczegółów technicznych i logistycznych, to sprawność energetyczna staje się dziś najbardziej kluczowym z parametrów, czy to w przypadku ogromnych centrów danych, czy też konsumenckich sprzętów domowych. Ekologia, ślad węglowy czy wreszcie tak prozaiczna rzecz, jak rachunek za prąd, stają się dziś jednym z kluczowych kryteriów zakupu. AMD wyraźnie to zrozumiało i jest gotowe tym walczyć na wszystkich frontach, jakie sobie obrało. Na razie, jak widać, skutecznie.

Jaki dysk SSD do gier? To musisz wiedzieć, zanim kupisz – PC World – Testy i Ceny sprzętu PC, RTV, Foto, Porady IT, Download, Aktualności

https://www.pcworld.pl/news/Jaki-dysk-SSD-do-gier-To-musisz-wiedziec-zanim-kupisz,442069.html

Dysk jest jednym z najważniejszych elementów komputera. To tutaj gromadzimy swoje dane, a od jego jakości zależy, jak szybko będą uruchamiały się programy i gry.

Jaki dysk SSD do gier? (fot. Samsung)

Jaki dysk SSD do gier? To musisz wiedzieć, zanim kupisz

Przy kupnie podzespołów do wymarzonego komputera najczęściej zwracamy uwagę na procesor, kartę graficzną i pamięć RAM. Nie możemy jednak zapominać także o dysku, na którym przecież gromadzimy dane i z jego poziomu uruchamiamy aplikacje. Na co zwrócić uwagę podczas zakupu, aby później nie żałować swojej decyzji?

Pojemność

Współczesne gry charakteryzują się nie tylko świetnie wyglądającą grafiką i porywającą fabułą, ale także rozmiarem. Trudno już teraz znaleźć tytuł, w którego wymaganiach sprzętowych w rubryce “miejsce na dysku” widnieje wartość kilku lub kilkunastu gigabajtów. Przykładowo, Call of Duty Modern Warfare potrzebuje ponad 230 GBMicrosoft Flight Simulator prawie 130 GB a Red Dead Redemption 2 prawie 120 GB wolnej przestrzeni na dysku. Pamiętajmy też, że rzadko się zdarza, żebyśmy mieli na komputerze zainstalowany tylko jeden tytuł. Aktualnie warto zwrócić uwagę na dyski, które cechują się pojemnością minimum 1 TB.

Samsung 990 PRO SSD (fot. Samsung)

Odczyt/zapis danych

Niezwykle ważną częścią specyfikacji jest także prędkość odczytu oraz zapisu danych. W przypadku graczy szczególną uwagę należy zwrócić na ten pierwszy element. Im wyższa wartość odczytu danych, tym szybciej uruchomimy daną aplikację, ale także szybciej załadują się nam poszczególne tekstury. Ma to szczególne znaczenie w tytułach z otwartym światem, gdzie wszystkie elementy wczytywane są na żywo. Komfortowe granie zapewniają dyski, których maksymalna prędkość wczytywania to około 4500 MB/s. Wszystko co powyżej, możemy uznać za wynik świetny, któremu nie oprze się praktycznie żaden tytuł.

Parametr zapisu nie jest jednak czymś, na co w ogóle nie powinniśmy zwracać uwagi. Komputera zazwyczaj nie używamy tylko do gier, ale także do magazynowania innych danych oraz np. pracy kreatywnej. Jeśli dodatkowo zajmujemy się filmowaniem i tworzymy materiały dotyczące choćby gier, na pewno ucieszy nas fakt, że możemy szybko zgrać dane z kamery i rozpocząć montaż najnowszego odcinka na kanał gamingowy. Oczywiście prędkość przesyłu i zapisu zależy także od standardu USB, z którego w danym momencie korzystamy.

ps5
Konsola PS5 (fot. Sony)

Co z konsolami?

Pamiętajmy, że granie to nie tylko komputery osobiste, ale także konsole. Nowa generacja urządzeń od Sony, czyli PlayStation 5 pozwala na rozbudowę ilości pamięci przez zamontowanie dodatkowego dysku. Fakt, możemy do PS5 podłączyć dysk zewnętrzny kablem USB. W takim wypadku, niezależnie od tego czy są to urządzenia dostępne w standardzie USB 2.0 czy USB 3.0, uruchomimy z ich poziomu jedynie gry dostępne we wstecznej kompatybilności. Jeśli chcemy grać w tytuły z obecnej generacji, musimy zaopatrzyć się w dysk SSD M.2. Nieco inaczej sprawa ma się w przypadku konsol Xbox Series X. Tutaj nie mamy możliwości zamontowania tego typu sprzętu. W zamian Microsoft oferuje w sprzedaży specjalne karty rozszerzeń.

Samsung 990 PRO SSD to strzał w dziesiątkę

Firma Samsung, od 2003 roku światowy lider na rynku pamięci flash wychodzi na przeciw oczekiwaniom graczy i wymaganiom współczesnych tytułów. Owocem tej pracy jest dysk PCIe Gen 4.0 x4, NVMe M.2 – Samsung 990 PRO SSD o pojemności 1 TB2 TB i 4 TB. Urządzenie charakteryzuje się bardzo szybkim odczytem danych. Maksymalna wartość wynosi do 7450 MB/s. Sam zapis także wiele nie ustępuje tym wartościom, ponieważ możemy liczyć nawet do 6900 MB/s. Z kolei prędkości zapisu i odczytu losowego wynoszą odpowiednio do 1400K i 1550K IOPS, co daje nam odpowiednio nawet o 40 % i 55 % lepsze osiągi niż model 980 PRO w pracy w trybie losowym. Co więcej, Samsung 990 PRO SSD wspiera technologię DirectStorage, która pozwala na skrócenie czasu ładowania gier.

Samsung przeprowadził testy dysku w grze Forspoken, nadchodzącym RPG od studia Luminous Productions. Wyniki mówią same za siebie. Czas ładowania mapy w przypadku 990 PRO SSD wynosił około sekundy. Dla porównania, było to blisko 4 sekundy przy wykorzystaniu dysku SATA SSD oraz 28 sekund w momencie, kiedy gra uruchamiała się z dysku HDD. Pokazuje to, że Samsung zapewnia błyskawiczny odczyt zapisanych danych i pozwala na praktycznie natychmiastowe zanurzenie się w świecie gry. Poza dyskiem 990 PRO SSD, w stacji testowej znajdował się procesor AMD Ryzen 9 5900X 3,70 GHz, karta graficzna AMD Radeon RX 6900 XT 16GB oraz 32 GB pamięci RAM.

Jaki dysk SSD do gier? To musisz wiedzieć, zanim kupisz
Samsung 990 PRO SSD to wysoka szybkość odczytu danych (fot. Samsung)

Inżynierowie Samsunga zadbali także o inne elementy urządzenia, które zapewnią bezpieczeństwo oraz ochronę sprzętu.

Architektura nowego sterownika zapewnia niski pobór mocy. Co więcej, zastosowano tutaj odprowadzającą ciepło warstwę, która gwarantuje niezawodne zarządzanie poziomem energii termicznej. Dzięki temu, oraz specjalnej technologii Dynamic Thermal Guard temperatura urządzenia zawsze będzie utrzymywać się w odpowiednim zakresie i nie dojdzie do przegrzania, a w następstwie uszkodzenia dysku. W przyszłym roku dostępna będzie wersja dysku 990 PRO wyposażona w radiator, która zaoferuje dodatkowe zabezpieczenie i jeszcze bardziej zwiększy bezpieczeństwo. Montaż Samsung 990 PRO SSD zapewnia zwiększenie wydajności i sprawności naszego urządzenia, obniżając przy tym zużycie energii.

Jaki dysk SSD do gier? To musisz wiedzieć, zanim kupisz
Samsung 990 PRO SSD i Samsung 990 PRO SSD Heatsink (fot. Samsung)

Samsung 990 PRO SSD przeznaczony jest dla wymagających graczy, którzy cenią sobie jak najlepsze wrażenia z rozgrywki. Prędkość odczytu danych sprawi, że nawet najnowsze i najbardziej zaawansowane technicznie produkcje będą wczytywać się błyskawicznie. Co więcej, zastosowane technologie odprowadzania ciepła pozwolą na bezpieczne użytkowanie sprzętu. Jest to świetne rozwiązanie dla wszystkich sympatyków gier bez względu na to, czy korzystają z komputera stacjonarnegolaptopa czy konsoli do gier.

Google Chromecast 3 czy Chromecast 4? Oto czym się różnią i który model lepiej wybrać

https://android.com.pl/tech/533807-chromecast-3-czy-chromecast-4/

Chromecast od Google to urządzenie budzące zainteresowanie wśród osób, które chciałyby zacząć korzystać z możliwości, jakie daje Smart TV. Na rynku są jednak dostępne różne wersje tego sprzętu. Porównujemy Chromecast 3 oraz 4 i podpowiadamy, który jest lepszą opcją.

Google Chromecast – co to właściwie jest?

chromecast
Chromecast 3.

Chromecast to specjalna przystawka do telewizora, która jest podłączana do gniazda HDMI i znacznie rozszerza możliwości sprzętu. Urządzenie od Google pozwala przesyłać bezprzewodowo obraz oraz dźwięk z urządzeń mobilnych na ekran telewizora, a także korzystać z aplikacji charakterystycznych dla nowoczesnych telewizorów. Jeśli posiadamy telewizor bez funkcji Smart TV, przystawka od Google znacznie ułatwi nam konsumpcję treści z platform streamingowych.

W przypadku, gdy mamy telewizor niebędący Smart TV, możemy oczywiście podłączyć do niego komputer i w ten sposób, bez żadnych przystawek, przenieść treści np. z Netflixa lub YouTube’a na duży ekran. W praktyce jest to jednak niewygodne rozwiązanie. Za każdym razem trzeba podłączać komputer do telewizora i pilnować, by był on naładowany. Przełączanie treści, ich wyszukiwanie oraz zmiana ustawień – wszystko odbywa się z poziomu komputera, do którego musimy podejść. Interesujące nas treści muszą być odtwarzane jednocześnie na komputerze i telewizorze, bo widok z komputera jest automatycznie przenoszony na duży ekran.

Chromecast nie kopiuje automatycznie zawartości ekranu komputera czy smartfona, lecz korzysta z wybranej przez użytkownika aplikacji. Możemy wygasić ekran drugiego urządzenia lub robić na nim coś zupełnie innego, a na telewizorze wciąż będzie widoczny np. ulubiony serial. Do tego mamy możliwość sterowania odtwarzanymi treściami smartfonem lub specjalnym pilotem, który jest dołączony w zestawie.

Chromecast 3 i 4 – podobieństwa i różnice

Chromecast 4.

Obie omawiane wersje urządzenia od Google pozwalają przenieść ulubione treści z komputera lub smartfona na ekran telewizora. Możliwości porównywanych modeli znacząco się jednak różnią i trzeba powiedzieć wprost, że to Chromecast 4 oferuje więcej.

Po pierwsze czwórka obsługuje wyższą maksymalną rozdzielczość (3840 × 2160 px, a nie 1920 × 1080 px). Po drugie, nowsza wersja urządzenia posiada system Google TV i działa bardziej samodzielnie. Posiadając trójkę, zawsze musimy mieć pod ręką inne urządzenie (np. smartfon), by przesłać z niego treści na telewizor. W przypadku czwórki mamy do dyspozycji niezależny interfejs. Po uruchomieniu telewizora i przystawki mamy taki widok jak posiadacze telewizorów Smart TV. Widzimy filmy, seriale i zainstalowane aplikacje. Poruszanie się po interfejsie nie wymaga smartfona – w zestawie jest dołączony specjalny pilot.

Google Chromecast – ceny, dostępność, alternatywy

Chromecast 3 i 4.

W dużym uproszczeniu można powiedzieć, że Chromecast 3 umożliwia skorzystanie na starym telewizorze z pewnych funkcji, które daje Smart TV. Z kolei wersja z cyfrą 4 zapewnia komfort korzystania m.in. z treści VOD na takim poziomie, jaki jest w przypadku telewizorów Smart TV. Poza strumieniowaniem treści z drugiego urządzenia możemy bowiem cieszyć się samodzielnym interfejsem oraz obsługą za pomocą dedykowanego pilota. Nowsza wersja daje większe możliwości, ale jest też droższa i to niemal dwukrotnie.

Jeśli szukacie jak najtańszego sposobu, by korzystać m.in. z treści VOD na telewizorze, zanim zmienicie go na model Smart TV, powinniście być zadowoleni z wersji z numerem 3. W przypadku, gdy nie planujecie zbyt szybkiej zmiany telewizora i chcecie jak najbardziej upodobnić działanie swojego sprzętu do Smart TV, odpowiedni będzie dla was raczej model z 4.

Czytaj także: Chromecast 4.0 z nowymi funkcjami. Oto lista najważniejszych zmian

Oczywiście nie trzeba ograniczać się do urządzeń od Google. Wśród alternatyw można wymienić choćby Xiaomi Mi Stick TVXiaomi Mi Box S oraz Realme TV Stick.

ESET wyróżniony w teście bezpieczeństwa rozwiązań biznesowych AV-Comparatives – Blog – DAGMA Bezpieczeństwo IT

https://blog.dagma.eu/pl/news

W pierwszym półrocznym teście z serii Business Main – Test Series z 2022 roku, ESET PROTECT Entry z ESET PROTECT Cloud otrzymał nagrodę „Business Security APPROVED”, osiągając skuteczność ochrony na poziomie 99,6%. Testowane rozwiązania są kierowane zarówno do dużych, globalnych organizacji, ale również do mniejszych firm.

Test ochrony naśladował ataki złośliwego oprogramowania, które użytkownik biznesowy może napotkać podczas pracy w Internecie. ESET PROTECT Entry z ESET PROTECT Cloud wykazał się skutecznością ochrony w czasie rzeczywistym na poziomie 99,6%, co pozwoliło zając mu 4. miejsce wśród 18 testowanych rozwiązań. ESET, jako jedyny ze wszystkich, nie wykazał ani jednego fałszywego alarmu.

Test wydajności analizował wpływ każdego produktu na wydajność systemu, tj. jak bardzo spowalnia normalne korzystanie z komputera podczas wykonywania określonych zadań. ESET ze swoim rozwiązaniem chmurowym udowodnił, że ma bardzo niskie zapotrzebowanie na zasoby komputera, osiągając czwarty najniższy wpływ na wydajność.

Konsola zarządzająca ESET PROTECT Cloud to chmurowa wersja centralnego zarządzania rozwiązaniami ESET. Pozwala na zdalne zarządzanie wszystkimi produktami ESET, eliminując konieczność zakupu, instalacji i utrzymywania dodatkowego sprzętu, wymagane przy korzystaniu z konsoli lokalnej. W połączeniu z nieskomplikowaną obsługą gwarantuje oszczędność nie tylko pieniędzy i czasu. Dzięki temu możesz w pełni poświęcić się pozostałym zadaniom, kluczowym dla działania Twojej firmy.

Więcej informacji pod linkiem.

Ataki ransomware coraz skuteczniejsze – nie udaje się odzyskać nawet 1/3 danych | ITwiz

https://itwiz.pl/ataki-ransomware-coraz-skuteczniejsze-nie-udaje-sie-odzyskac-nawet-1-3-danych/

W ubiegłym roku nawet 69% dużych firm w Europie Środkowo-Wschodniej padło ofiarą ataków ransomware, które spowodowały największe przestoje w ich działalności – wynika z Data Protection Trends Report firmy Veeam. Aż 7 na 10 ofiar straciło co najmniej część danych, z czego średnio 1/3 nie udało się odzyskać. 

Ataki ransomware coraz skuteczniejsze – nie udaje się odzyskać nawet 1/3 danych

Według wspomnianego badania – w którym udział wzięło 3 tys. osób podejmujących decyzje dotyczące infrastruktury IT w przedsiębiorstwach z 28 krajów – ataki ransomware w 2021 roku dotknęły o 15% więcej firm na świecie, w porównaniu z rokiem 2020. Tego typu zagrożenia stają się coraz bardziej powszechne i nasilone – ponad połowa dużych firm (58%) doświadczyła więcej niż jednego ataku, zaś aż 16% nawet czterech lub więcej.

Jak się okazuje, najczęściej cyberprzestępcy dostają się do infrastruktury IT w wyniku kliknięcia przez pracowników w linki prowadzące do złośliwych stron internetowych (25%), przechwycenie danych uwierzytelniających (23%), zainfekowane aplikacje lub pakiety z aktualizacjami oprogramowania (20%) oraz spam (17%). W wypadku 42% firm przestępcy zyskali dostęp do sieci przez działania użytkowników. Z kolei 43% ataków wykorzystywało niestaranność administratorów (wyciek danych uwierzytelniających, zainfekowane oprogramowanie, niezałatane luki).

Z badanie Veeam wynika też, że ataki ransomware stają się coraz skuteczniejsze. Firmy w Europie Środkowo-Wschodniej, które stały się ofiarami, nie były w stanie odzyskać średnio nawet 32% utraconych danych. Co czwarta mogła odzyskać ich najwyżej 40%. Z kolei połowa dużych przedsiębiorstw wskutek ransomware’u doświadczyła przestoju w działalności. A średnio ok. 15% firmowych danych nadal pozostaje całkowicie niezabezpieczonych, czytamy w analizie.

Przeczytaj równieżJak okres pandemii i lockdown wpłynął na wyniki firm IT w Polsce

“Cyberprzestępcy są dobrze zorientowani w tym, jak wykorzystywać słabe punkty w systemach firm. Jedna luka w zabezpieczeniach może narazić przedsiębiorstwo – utracone bywają nawet kopie zapasowe i dane archiwalne, które nie są odpowiednio chronione przez działy IT. Pracownicy IT w firmach powinni zadawać sobie pytanie nie „czy”, ale „kiedy” staną się celem ataku. Chociaż wzrost popularności zagrożeń skłania firmy do wzmacniania ochrony, w rzeczywistości prawie wszystkie systemy komputerowe są podatne na naruszenia” – mówi Andrzej Niziołek, dyrektor regionalny na Europę Wschodnią w Veeam.

Jak chronić się przed skutkami ataku?

Wiele firm czuje presję, aby zapłacić okup, gdyż wydaje się to najszybszą ścieżką neutralizacji szkód związanych z przestojami. Naraża to jednak przedsiębiorstwo nie tylko na koszty finansowe, ale też utratę reputacji. Nie daje też gwarancji, że dane zostaną odzyskane, wskazują przedstawiciele Veeam.

Ataki ransomware coraz skuteczniejsze – nie udaje się odzyskać nawet 1/3 danych

Firmy powinny więc skupić się na edukowaniu pracowników, aby utrudnić przestępcom uzyskanie dostępu do danych i systemów potrzebnych do przeprowadzenia ataku. Drugą linią obrony są narzędzia blokujące możliwość zaszyfrowania danych, a trzecią – gdy atak się powiedzie – opcja szybkiego przywrócenia danych z bezpiecznej kopii zapasowej, tłumaczą specjaliści Veeam i zalecają stosowanie zasady 3-2-1-1-0. Oznacza ona, iż powinny istnieć co najmniej trzy kopie ważnych danych na dwóch różnych rodzajach nośników. Przynajmniej jedna z nich powinna się znajdować poza siedzibą firmy, w trybie offline i być niezmienna. Kopie zapasowe powinny też być zweryfikowane i nie zawierać błędów.

“Odzyskiwanie danych z kopii zapasowych powinno być częścią planu zachowania ciągłości działania firmy i przywracania do pracy zasobów po awarii. W ten sposób przedsiębiorstwo nie tylko zwiększa swoją odporność na ataki, ale też unika ryzyka utraty danych oraz związanych z tym kosztów finansowych czy szkód wizerunkowych. Ważne jest także testowanie procedury odzyskiwania danych, aby upewnić się, że kopie zapasowe zostały wykonane bezbłędnie” – wskazuje Andrzej Niziołek. “Inwestycję w system kopii zapasowych należy traktować podobnie jak ubezpieczenie mieszkania. Każdy ma nadzieję, że nigdy nie będzie musiał korzystać z takich zabezpieczeń, ale w razie potrzeby firma będzie chroniona, a dane bezpieczne. Skutki udanego ataku ransomware zależą m.in. od tego, jakie rozwiązanie do tworzenia kopii zapasowych firma wdrożyła i jakie środki naprawcze zastosowała. Infrastruktura zapasowa może znacznie zwiększyć odporność na takie zagrożenia” – podsumowuje.

Monitory Sony Bravia – Wyprzedaż

Drogi Kliencie,

nie przegap letniej wyprzedaży monitorów Sony Bravia. Ilość sztuk jest ograniczona!

Monitory objęte wyprzedażą

SONY BRAVIA 55″ 4K ANDROID PRO Z TUNEREM TV (FWD-55X81H/T1) – jedynie 555 EURO netto

SONY BRAVIA 65″ 4K ANDROID PRO Z TUNEREM TV (FWD-65A90J) – jedynie 1932 EURO netto

Zainteresowany – napisz it@truecom.pl

Nowy 13,6-calowy MacBook Air z czipem M2

Nowy 13,6-calowy MacBook Air z czipem M2 zaprezentowany podczas czerwcowej konferencji AWDC22 dostępny w przedsprzedaży już od 8 lipca!

Zdumiewająco wydajny i w niewiarygodnie smukłej obudowie MacBook Air dostępny w czterech kolorach: srebrnym, gwiezdnej szarości, gwiezdnym świetle i północy.

Jeżeli jesteś zainteresowany zamówieniem w przedsprzedaży napisz do nas: it@truecom.pl

Windows 98 zaktualizowany. Po ponad 20 latach od premiery – TELEPOLIS.PL

https://www.telepolis.pl/tech/windows/windows98-microsoft-aktualizacja-mars-sonda

Windows 98 zadebiutował, jak sama nazwa wskazuje, w roku 1998 i utrzymywany był do 2002, choć dzięki programowi wsparcia rozszerzonego niektórzy użytkownicy, w tym korporacje, mogli cieszyć się aktualizacjami aż do 2006.

Tak czy inaczej, patrząc z perspektywy dnia dzisiejszego, każda z tych dat to już niemal prehistoria. Trochę nieoczekiwanie, nie oznacza to jednak, że nikt już o poczciwej dziewięćdziesiątce-ósemce nie pamięta. 

Mars Express, czyli ESA na Marsie

Jednym z aktywnych użytkowników Win 98 pozostaje Europejska Agencja Kosmiczna (ESA), a konkretniej wysłana przez nią bezzałogowa misja Mars Express, uruchomiona celem odnalezienia na Marsie wody w stanie ciekłym.

Sonda, według dostępnych informacji zbudowana na procesorze Intel Pentium 90, ma rzecz jasna specjalnie zmodyfikowaną wersję systemu, która utrzymuje m.in. oprogramowanie do mapowania powierzchni Czerwonej Planety w oparciu o odbite fale radiowe.  

Jak możemy się dowiedzieć, kilka tygodni temu rękoma inżynierów z Narodowego Instytutu Astrofizyki we Włoszech oprogramowanie sondy zostało kompleksowo zaktualizowane.

Wprawdzie nie wiadomo, co dokładnie zostało w nim zmienione, ale teraz ponoć uzyskiwane obrazy mają znacznie większą szczegółowość. A to z kolei dlatego, że udało się wyeliminować z łańcucha przetwarzania dane naukowcom zbędne.

Windows 98 i Pentium 90 – co potrafi ten duet?

W świecie konsumenckim niewiele. Ot, można na nim odpalić kultową grę Doom. Jednak jak się okazuje, dla misji Mars Express ta leciwa konfiguracja jest całkowicie wystarczająca, z powodzeniem wykonując niezbędne obliczenia.

Nadajnik zwany MARSIS (od ang. Instrument Mars Advanced Radar for Subsurface and Ionospheric Sounding), dzięki 40-metrowej antenie, wysyła w kierunku planety fale radiowe o niskiej częstotliwości.

Większość z nich odbija się od powierzchni, jednak pewna część przechodzi przed skorupę, by dotrzeć do rozmaitych materiałów w głębszych warstwach, w tym lodu, gleby, skał czy wody właśnie.

Analizując odbite sygnały, komputer pokładowy może mapować strukturę Marsa do głębokości nawet kilku kilometrów, badając przy tym na przykład grubość i skład chemiczny polarnych czap lodowych, a także właściwości skał wulkanicznych i osadowych.

Najwyraźniej moc Pentium 90 jest do tego wystarczająca. Podobnie zresztą jak funkcjonalność zmodyfikowanego Win 98.