Nadmi
- Kraj:Polska
- : Język.:deutsch
- : Utworzony.: 06-10-15
- : Ostatnie Logowanie.: 31-03-25
: Opis.: Prezentacja działania baterii protonowej z użyciem wentylatorów. © Uniwersytet RMIT Dzięki nowoczesnym rozwiązaniom technologicznym, wkrótce tradycyjne akumulatory litowo-jonowe mogą być zastąpione przez innowacyjne baterie protonowe, które są bardziej przyjazne dla środowiska. Tego rodzaju ekologiczna alternatywa staje się coraz bardziej realna. Celem zmniejszenia emisji gazów cieplarnianych, nieustannie dąży się do wykorzystania odnawialnych źródeł energii, choć bywają one zmienne i nieprzewidywalne. Dlatego koniecznością staje się rozwój zaawansowanych technologii magazynowania energii, a akumulatory są jednym z najbardziej efektywnych narzędzi w tej dziedzinie. Niestety, litowo-jonowe wersje akumulatorów mają wiele wad ekologicznych, co sprawia, że baterie protonowe stają się atrakcyjnym rozwiązaniem. Ekologiczny i tani akumulator Zespół inżynierów z Uniwersytetu RMIT intensywnie pracuje nad opracowaniem ekonomicznego akumulatora, który nie byłby uzależniony od wydobycia rzadkich i szkodliwych dla środowiska pierwiastków. Ich projekt, prototyp baterii protonowej, może wkrótce zasilać różnorodne urządzenia bez obciążania środowiska naturalnego. Specjalność baterii protonowej polega na wykorzystaniu porowatej elektrody wykonanej z aktywnego węgla, nasączonej rozcieńczonym kwasem. Elektrody tej używa się do przechowywania wodoru, oddzielonego od cząsteczek wody. Proces generowania energii elektrycznej jest podobny do działania wodorowych ogniw paliwowych. Po zużyciu wszystkie komponenty akumulatora mogą być ponownie wprowadzone do obiegu dzięki procesowi regeneracji i recyklingu. Bateria protonowa - działanie i zalety Podczas rozładowywania się baterii, protony z wodoru znajdujące się w węglowej elektrodzie są uwalniane i przechodzą przez specjalną membranę, gdzie w połączeniu z tlenem tworzą wodę, będącą produktem ubocznym reakcji generującej elektryczność. Zmiany w konstrukcji, opracowane przez badaczy z RMIT, powodują, że bateria protonowa jest bardziej efektywna energetycznie niż tradycyjne systemy wodorowe, co sprawia, że jej wydajność dorównuje bateriom litowo-jonowym. Co więcej, nie ma negatywnego wpływu na emisję CO2. Przyszłość tej rewolucyjnej technologii zależy od współpracy z firmą Eldor Corporation, globalnym dostawcą części samochodowych z Włoch. Następnym celem jest zwiększenie mocy baterii – od watów do kilowatów, a w dłuższej perspektywie nawet do megawatów.
: Data Publikacji.: 26-03-25
: Opis.: Nepenthes Zobaczył, że boty kradną informacje z jego strony. Zastawił pułapkę, której pożałowały. Crawlery zlizują zawartości stron www w celu karmienia danymi IA. This is a tarpit intended to catch web crawlers. Specifically, it's targetting crawlers that scrape data for LLM's - but really, like the plants it is named after, it'll eat just about anything that finds it's way inside. It works by generating an endless sequences of pages, each of which with dozens of links, that simply go back into a the tarpit. Pages are randomly generated, but in a deterministic way, causing them to appear to be flat files that never change. Intentional delay is added to prevent crawlers from bogging down your server, in addition to wasting their time. Lastly, optional Markov-babble can be added to the pages, to give the crawlers something to scrape up and train their LLMs on, hopefully accelerating model collapse. You can take a look at what this looks like, here. (Note: VERY slow page loads!) WARNING THIS IS DELIBERATELY MALICIOUS SOFTWARE INTENDED TO CAUSE HARMFUL ACTIVITY. DO NOT DEPLOY IF YOU AREN'T FULLY COMFORTABLE WITH WHAT YOU ARE DOING. ANOTHER WARNING LLM scrapers are relentless and brutual. You may be able to keep them at bay with this software - but it works by providing them with a neverending stream of exactly what they are looking for. YOU ARE LIKELY TO EXPERIENCE SIGNIFICANT CONTINUOUS CPU LOAD, ESPECIALLY WITH THE MARKOV MODULE ENABLED. YET ANOTHER WARNING There is not currently a way to differentiate between web crawlers that are indexing sites for search purposes, vs crawlers that are training AI models. ANY SITE THIS SOFTWARE IS APPLIED TO WILL LIKELY DISAPPEAR FROM ALL SEARCH RESULTS. So why should I run this, then? So that, as I said to Ars Technica, we can fight back even if we don't succeed. Be indigestible. Grow spikes. Instead of rolling over and letting these assholes do what they want, make them have to work for it instead. Latest Version Nepenthes 1.1 All downloads Usage Expected usage is to hide the tarpit behind nginx or Apache, or whatever else you have implemented your site in. Directly exposing it to the internet is ill advised. We want it to look as innocent and normal as possible; in addition HTTP headers are used to configure the tarpit. I'll be using nginx configurations for examples. Here's a real world snippet for the demo above: POLSKI: Nepenthes To jest tarpit przeznaczony do łapania robotów sieciowych. Konkretnie, jest skierowany na roboty, które zeskrobują dane dla LLM - ale tak naprawdę, podobnie jak rośliny, od których pochodzi jego nazwa, zje prawie wszystko, co znajdzie drogę do środka. Działa poprzez generowanie nieskończonych sekwencji stron, z których każda zawiera dziesiątki linków, które po prostu wracają do tarpit. Strony są generowane losowo, ale w sposób deterministyczny, co sprawia, że wyglądają jak płaskie pliki, które nigdy się nie zmieniają. Celowe opóźnienie jest dodawane, aby zapobiec robotom spowalnianiu serwera, oprócz marnowania ich czasu. Na koniec, opcjonalne bełkot Markowa można dodać do stron, aby dać robotom coś do zeskrobania i trenowania ich LLM, miejmy nadzieję, przyspieszając załamanie modelu. Możesz zobaczyć, jak to wygląda, tutaj. (Uwaga: BARDZO wolne ładowanie stron!) OSTRZEŻENIE TO JEST CELOWO ZŁOŚLIWE OPROGRAMOWANIE, KTÓRE MA NA CELU WYWOŁYWAĆ SZKODLIWE DZIAŁANIA. NIE WDRAŻAJ, JEŚLI NIE CZUJESZ SIĘ W PEŁNI KOMFORTOWO Z TYM, CO ROBISZ. INNE OSTRZEŻENIE Scrapery LLM są bezlitosne i brutalne. Możesz być w stanie trzymać je na dystans za pomocą tego oprogramowania — ale działa ono poprzez dostarczanie im niekończącego się strumienia dokładnie tego, czego szukają. PRAWDOPODOBNIE BĘDZIESZ DOŚWIADCZAŁ ZNACZNEGO CIĄGŁEGO OBCIĄŻENIA PROCESORA, SZCZEGÓLNIE PO WŁĄCZENIU MODUŁU MARKOV. JEDNO OSTRZEŻENIE Obecnie nie ma sposobu, aby odróżnić roboty indeksujące witryny w celach wyszukiwania od robotów szkolących modele AI. KAŻDA STRONA, DO KTÓREJ ZASTOSOWANO TO OPROGRAMOWANIE, NAPRAWDĘ ZNIKNIE ZE WSZYSTKICH WYNIKÓW WYSZUKIWANIA. Więc dlaczego miałbym to uruchomić? Abyśmy, jak powiedziałem Ars Technica, mogli się bronić, nawet jeśli nam się nie uda. Bądź niestrawny. Rozwijaj kolce. Zamiast się poddać i pozwolić tym dupkom robić, co chcą, spraw, żeby musieli na to zapracować. Najnowsza wersja Nepenthes 1.1 Wszystkie pliki do pobrania Użycie Oczekiwane użycie to ukrycie tarpita za nginx lub Apache lub czymkolwiek innym, w czym zaimplementowałeś swoją stronę. Bezpośrednie wystawianie go na działanie Internetu jest niewskazane. Chcemy, żeby wyglądał tak niewinnie i normalnie, jak to możliwe; ponadto nagłówki HTTP są używane do konfigurowania tarpita. Jako przykłady użyję konfiguracji nginx. Oto fragment rzeczywistego świata dla powyższej demonstracji: location /nepenthes-demo/ { proxy_pass http://localhost:8893; proxy_set_header X-Prefix '/nepenthes-demo'; proxy_set_header X-Forwarded-For $remote_addr; proxy_buffering off; } Zobaczysz, że dodano tutaj kilka nagłówków: „X-Prefix” mówi tarpitowi, że wszystkie linki powinny prowadzić do tej ścieżki. Spraw, aby pasowało to do tego, co jest w dyrektywie „location”. X-Forwarded-For jest opcjonalne, ale sprawi, że wszelkie zebrane statystyki będą znacznie bardziej przydatne. Dyrektywa proxy_buffering jest ważna. Roboty LLM zazwyczaj rozłączają się, jeśli nie otrzymają odpowiedzi w ciągu kilku sekund; Nepenthes przeciwdziała temu, pobierając po kilka bajtów na raz. Buforowanie przerywa to obejście. Możesz mieć wiele serwerów proxy do pojedynczej instancji Nepenthes; po prostu ustaw odpowiednio nagłówek X-Prefix. Instalacja Możesz użyć Dockera lub zainstalować ręcznie. Dockerfile i compose.yaml są dostępne w katalogu /docker. Po prostu dostosuj plik konfiguracyjny do swoich preferencji, 'docker compose up'. Nadal będziesz musiał uruchomić korpus Markova, jeśli włączysz tę funkcję (patrz następna sekcja). W przypadku instalacji ręcznej musisz zainstalować Lua (preferowany 5.4), SQLite (jeśli używasz Markova) i OpenSSL. Następujące moduły Lua muszą zostać zainstalowane — jeśli wszystkie są obecne w menedżerze pakietów, użyj go; w przeciwnym razie będziesz musiał zainstalować Luarocks i użyć go do zainstalowania następujących elementów: cqueues ossl (znany również jako luaossl) lpeg lzlib (lub lua-zlib, potrzebny jest tylko jeden z dwóch) dbi-sqlite3 (znany również jako luadbi-sqlite3) unix (znany również jako lunix) Utwórz użytkownika nepenthes (NAPRAWDĘ nie chcesz, aby był uruchamiany jako root). Załóżmy, że katalog domowy użytkownika jest również katalogiem instalacyjnym. useradd -m nepenthes Rozpakuj tarball: cd scratch/ tar -xvzf nepenthes-1.0.tar.gz cp -r nepenthes-1.0/* /home/nepenthes/ Dostosuj config.yml według własnych preferencji (patrz poniżej dokumentacja). Następnie możesz zacząć: su -l -u nepenthes /home/nepenthes/nepenthes /home/nepenthes/config.yml Wysłanie SIGTERM lub SIGINT spowoduje zamknięcie procesu. Bootstrapping Markov Babbler Funkcja Markov wymaga wyszkolonego korpusu do bełkotu. Jeden został celowo pominięty, ponieważ w idealnym przypadku tarpity każdego powinny wyglądać inaczej, aby uniknąć wykrycia. Znajdź źródło tekstu w dowolnym preferowanym języku; jest wiele korpusów badawczych, ewentualnie wyciągnij kilka bardzo długich artykułów z Wikipedii, może weź kilka książek z Project Gutenberg, plik Fortune Unix, to naprawdę nie ma znaczenia. Bądź kreatywny! Trening odbywa się poprzez wysyłanie danych do punktu końcowego POST. Trzeba to zrobić tylko raz. Wysyłanie danych treningowych więcej niż raz kumuluje się w istniejącym korpusie, co pozwala na mieszanie różnych tekstów - lub trenowanie w kawałkach. Gdy masz już swój tekst, zakładając, że nazywa się corpus.txt, w swoim katalogu roboczym i uruchamiasz z domyślnym portem: curl -XPOST -d ./@corpus.txt -H'Content-type: text/plain' http://localhost:8893/train Może to potrwać bardzo, BARDZO długo - prawdopodobnie godziny. curl może potencjalnie przekroczyć limit czasu. Zobacz load.sh w dystrybucji nepenthes, aby zapoznać się ze skryptem, który przyrostowo ładuje dane treningowe. Moduł Markowa zwraca pusty ciąg, jeśli nie ma korpusu. W związku z tym tarpit będzie nadal działał jako tarpit bez załadowanego korpusu. Dodatkowy procesor wykorzystany na to sprawdzenie jest prawie zerowy. Jeśli chcesz usunąć korpus Markowa i zacząć od nowa, wystarczy użyć curl do tego samego punktu końcowego, używając metody DELETE: curl -XDELETE http://localhost:8893/train Statystyki Chcesz zobaczyć, jaką zdobycz złapałeś? Istnieje kilka punktów końcowych statystyk, wszystkie zwracające JSON. Aby zobaczyć wszystko: http://{http_host:http_port}/stats Aby zobaczyć tylko ciągi agenta użytkownika: http://{http_host:http_port}/stats/agents Lub tylko adresy IP: 3 http://{http_host:http_port}/stats/ips/ Mogą być dość duże; więc można filtrować zarówno „agentów”, jak i „ips”, po prostu dodaj minimalną liczbę trafień do adresu URL. Na przykład, aby zobaczyć listę wszystkich adresów IP, które zostały odwiedzone ponad 100 razy: c Po prostu zwiń adresy URL, przekieruj do 'jq', aby ładnie wydrukować zgodnie z życzeniem. Skrypt do dzieła! Nowość w wersji 1.1: jest punkt końcowy statystyk korpusu, jeśli jesteś ciekaw, jak duży jest i nie chcesz bawić się w SQLite: http://{http_host:http_port}/stats/markov Nepenthes używane defensywnie Link do lokalizacji Nepenthes z Twojej witryny spowoduje zalanie prawidłowych adresów URL w nazwie domeny Twojej witryny, co sprawi, że mało prawdopodobne jest, aby robot indeksujący uzyskał dostęp do prawdziwej zawartości. Ponadto zagregowane statystyki dostarczą listę adresów IP, które prawie na pewno są robotami indeksującymi, a nie prawdziwymi użytkownikami. Użyj tej listy, aby utworzyć listy kontroli dostępu, które blokują tym adresom IP dostęp do Twojej zawartości zwracają 403, 404 lub po prostu blokują na poziomie zapory. Integracja z fail2ban lub blocklistd (lub podobnymi) jest przyszłą możliwością, umożliwiającą reagowanie w czasie rzeczywistym na roboty, ale obecnie nie jest zaimplementowana. Używając Nepenthes defensywnie, idealnie byłoby wyłączyć moduł Markowa i ustawić zarówno max_delay, jak i min_delay na coś dużego, jako sposób na oszczędzanie procesora. Wymuszanie pliku robots.txt Często o to pytają: tak, to jest prawidłowy przypadek użycia. Nie to zamierzałem zrobić (sprawiać ból firmom AI), co jest czymś zupełnie innym niż zmuszanie botów do respektowania pliku robots.txt. Ale działa dobrze, gdy jest stosowany. Wystarczy dodać: User-agent: \* Disallow: /nepenthes-demo Do pliku robots.txt, a ci, którzy respektują zasady, zostaną z dala. Wtedy statystyki IP mogą być używane jako lista banów, aby oszczędzać zasoby. Nepenthes używane ofensywnie Załóżmy, że masz moc i przepustowość do spalenia i chcesz po prostu zobaczyć, jak te modele AI płoną. Nepenthes ma to, czego potrzebujesz: Nie próbuj blokować robotów za pomocą statystyk IP. Ustaw czasy opóźnień tak niskie, jak ci wygodnie. Wytrenuj duży korpus Markowa i zostaw moduł Markowa włączony, ustaw maksymalny rozmiar bełkotu na coś dużego. Krótko mówiąc, pozwól im wchłonąć tyle gówna, na ile mają miejsce na dysku, i się tym zadław. Zaawansowane Od wersji 1.1 Nepenthes może nasłuchiwać na gnieździe domeny unix zamiast wiązać się z hostem i portem. Ustaw argument „unix_socket” w pliku config.yaml na ścieżkę, do której ma się wiązać. Pamiętaj, MUSISZ ustawić nagłówek X-Forwarded-For lub podobny w serwerze proxy! Nepenthes będzie działał nieprawidłowo bez niego podczas nasłuchiwania gniazda unix. Ta funkcja nie została rygorystycznie przetestowana, zachowaj ostrożność. Plik konfiguracyjny Wszystkie możliwe dyrektywy w config.yaml: http_host : ustawia hosta, na którym Nepenthes będzie nasłuchiwał; domyślnie jest to tylko localhost. http_port : ustawia numer portu nasłuchującego; domyślnie 8893 unix_socket: ustawia ścieżkę do gniazda domeny unix, na którym będzie nasłuchiwał. Domyślnie jest to nil. prefix: należy podać prefiks dla wszystkich generowanych linków. Można go zastąpić nagłówkiem HTTP X-Prefix. Domyślnie nic. templates: ścieżka do plików szablonów. Powinien to być katalog '/templates' w instalacji Nepenthes. detach: jeśli true, Nepenthes przejdzie w tło i przekieruje dane wyjściowe rejestrowania do Syslog. pidfile: ścieżka do usunięcia pliku pid po demonizacji. Jeśli pusta, nie zostanie utworzony żaden plik pid. max_wait: najdłuższe opóźnienie dodawane do każdego żądania. Zwiększ, aby spowolnić roboty; jeśli są zbyt wolne, mogą nie powrócić. min_wait: Najmniejsze opóźnienie dodawane do każdego żądania. Losowa wartość jest wybierana pomiędzy max_wait i min_wait. real_ip_header: Zmienia nazwę nagłówka X-Forwarded-For, który komunikuje rzeczywisty adres IP klienta w celu zbierania statystyk. prefix_header: Zmienia nazwę nagłówka X-Prefix, który zastępuje zmienną konfiguracji prefiksu. forget_time: Czas, w sekundach, przez jaki dany user-agent może zniknąć, zanim zostanie usunięty z tabeli statystyk. forget_hits: User-agent, który generuje więcej niż tę liczbę żądań
: Data Publikacji.: 25-03-25
: Opis.: Zobaczył, że boty kradną informacje z jego strony. Zastawił pułapkę, której pożałowały. Pewien pomysłowy programista wygrał wojnę z upierdliwymi crawlerami, które zalały należącą do niego witrynę w poszukiwaniu treści do karmienia AI. Z labiryntu ogłupienia wydostały się tylko boty OpenAI Internet przemierzany jest wzdłuż i wszerz przez boty zwane crawlerami („pełzaczami”). Choć słowo „bot” jest nacechowane negatywnie w języku polskim, to crawlery mają dość neutralnie nacechowane zadanie: muszą przeczesywać internet w poszukiwaniu nowych stron i treści. Dane, które zbierają crawlery najczęściej wykorzystywane są przez wyszukiwarki internetowe do indeksowania kolejnych stron – wyników wyszukiwania. Jednak w obliczu popularności generatywnej sztucznej inteligencji istnieje także spora grupa crawlerów, która dosłownie ściąga treści stron, by później wykorzystać je na potrzeby treningu różnego rodzaju modeli AI. Ogłupiający labirynt sposobem na natrętne crawlery Każda strona internetowa posiada ukryty plik robots.txt, który zawiera instrukcje dla crawlerów jak mają się zachowywać na stronie – może im też powiedzieć kolokwialne „idź sobie”, by wyszły ze strony. W branży istnieje niepisany konsensus, że każdy crawler pełzający po internecie ma przestrzegać wytycznych robots.txt. Jednak coraz częściej konsensus ten traci na wartości, a crawlery potrafią ruchem na stronie dosłownie uniemożliwić jej działanie. Tego doświadczył choćby właściciel serwisu iFixit.com, który w zeszłym roku nawiedziła fala crawlerów startupu AI Anthropic. Teraz podobną sytuację opisuje serwis Ars Technica, który dotarł do innego rozgoryczonego właściciela strony internetowej. I w przeciwieństwie do iFixit.com, nie poprzestał on na konfrontacji w mediach społecznościowych. Mężczyzna o pseudonimie Aaron powiedział dość przyzwoleniu na crawlery AI po tym jak boty Facebooka w krótkim czasie odwiedziły jego stronę aż 30 milionów razy. Wykorzystując się na antyspamową taktykę cyberbezpieczeństwa znanej jako tarpitting, stworzył Nepenthes, złośliwe oprogramowanie nazwane na cześć mięsożernej rośliny, która „zje prawie wszystko, co znajdzie się w środku”. Aaron wyraźnie ostrzega użytkowników, że Nepenthes to agresywne złośliwe oprogramowanie. Nie powinien być wdrażany przez właścicieli witryn, którzy nie czują się komfortowo z uwięzieniem crawlerów AI i wysłaniem ich w dół „nieskończonego labiryntu” statycznych plików bez linków wyjściowych, gdzie „utkną” i „będą się miotać” przez miesiące. – pisze Ars Technica Nepenthes nie tylko zatrzymuje crawlery w „labiryncie”, ale także karmi je „bełkotliwymi” danymi, zatruwając dane, którymi ma być trenowana AI. Jak relacjonuje Aaron, jego oprogramowanie zatrzymało w labiryncie ogłupienia crawlery należące do wszystkich większych firm rozwijających swoją generatywną sztuczną inteligencję. Z sideł udało się wydostać jedynie crawlerowi OpenAI. Ruch na stronie internetowej Aarona pokazał mu także, że Nepenthes zdobywa popularność wśród osób, które podobnie jak on mają dość agresywnego ruchu ze strony żądnych danych crawlerów AI. Nepenthes Oprogramowanie przeciwko crawlerowm na stronie internetowej. Nepenthes. Jednocześnie oprogramowanie to miecz obosieczny, gdyż uruchomienie Nepenthes na własnej stronie internetowej wiąże się z kilkoma zagrożeniami, w tym zwiększonym obciążeniem serwera z powodu nieskończonego labiryntu plików statycznych, co może spowolnić witrynę lub spowodować awarie. Nepenthes może również negatywnie wpływać na optymalizację strony dla wyszukiwarek internetowych, zatrzymując „przyjazne” roboty indeksujące, co prowadzi do obniżenia pozycji witryny w wyszukiwarkach. Ponadto oprogramowanie zużywa zasoby serwera, zwiększając koszty operacyjne – te porównywane są przez Aarona do „stałego działania Virtual Machine na Raspberry Pi”. Ponadto nie bez uwagi powinny przejść obawy prawne i etyczne związane z celowym i zamierzonym wdrażaniem złośliwego oprogramowania, a także potencjalne szkody dla reputacji witryny, które mogą zniechęcić ludzkich, niemających złych intencji odwiedzających. Tarpit
: Data Publikacji.: 25-03-25
: Opis.: Zrozumienie ryzyka przerostu prostaty. Łagodny rozrost gruczołu krokowego, znany również jako BPH, to stan, w którym prostata u mężczyzn i osób przypisanych do płci męskiej po urodzeniu jest powiększona. BPH nie jest nowotworem, ale może być frustrujące i prowadzić do innych komplikacji zdrowotnych. Na początku 2024 roku król Karol III leczony był w szpitalu z powodu łagodnego powiększenia gruczołu krokowego. Skoro już wiesz, czym jest BPH, na jakie objawy powinieneś zwrócić uwagę? Jeśli masz problemy z oddawaniem moczu lub słaby i przerywany strumień moczu, może to wskazywać na BPH i w takim wypadku powinieneś umówić się na wizytę u lekarza.
: Data Publikacji.: 24-03-25
© Web Powered by Open Classifieds 2009 - 2025