Node crawler timeoutprojekty
Poszukujemy osoby zdolnej do zaprogramowania narzędzia, które umożliwi nam analizę i selekcję informacji na stronach www. Celem jest stworzenie zaawansowanej bazy danych, która pozwoli na efektywne sortowanie i filtrację stron według specyficznych parametrów, takich jak poziom aktywności użytkowników. Naszym priorytetem jest zgromadzenie i organizacja informacji w sposób umożliwiający łatwe zarządzanie i dostęp do danych.
Cześć, Szukam kogoś, kto będzie w stanie wykonać dla mnie stronę internetową od podstaw. Wytyczne: - strona w formie katalogu - każdy produkt będzie miał tytuł, opis, kilka zdjęć oraz kilka krótkich dodatkowych informacji - potrzebny crawler, który będzie pobierał automatycznie dane tekstowe oraz zdjęcia z innej strony - zarządzanie treścią z poziomu panelu administracyjnego
Poszukujemy oprogramowania pobierającego określone dane ze wskazanych stron web (określimy dokładnie wszystkie potrzebne dane), oraz zapisaniu ich do bazy danych. Baza danych będzie znajdywać się w chmurze AWS (RDS).Web scraper może działać jako serverless worker bądź jako skrypt odpalany na komputerze. Model danych w bazie danych musi być stworzony tak aby odczyt był prosty i szybki. Obecne wyżej wymieniona strona posiada zabezpieczenia przed web scrgapingiem.
Preferowana, ale nie wymagana platforma: C# .NET lub C Kompilacja + źródła Crawler będzie operował na wcześniej przygotowanych plikach. Logowanie na numer GG Wysyłanie wiadomości. Przepływ numerów między plikami: 'do wysłania' -> 'wysłano' Rotacja numerów wysyłających. Konfiguracja w pliku: - rotate: co ile wiadomości ma nastąpić przelogowanie - delay: co ile ma zostać wysłana kolejna wiadomość, wartość losowa z zakresu od-do Plik nadawców: kolumna numer-hasło Plik odbiorców: kolumna numerów Plik przetworzonych odbiorców: kolumna numerów Plik z treścią wiadomości Interfejs: Start/Stop
Do projektu realizowanego przez uczelnię wyższą, poszukujemy JS developera/developerki. Tematyka projektu obejmuje tworzenie narzędzi do publikowania online w formie statycznych stron www. Specyfikacja projektu: Praca w metodyce zwinnej nad projektem w stack'u Electron + Node + React + Redux + MUI podpieranym przez CI. Udział w projektowaniu architektury frontendowej oraz backendowej aplikacji. Tworzenie reaktywnego interfejsu aplikacji desktopowej oraz funkcjonalności back-end (dostęp do systemu plików, komunikacja z zewnętrznym API, proxy do git'a). Testowanie jednostkowe kodu przy użyciu Jest oraz komponentów interfejsu przy pomocy Storybook. Praca zdalna do końca 2022 roku, rozliczana wg. przepracowanych godzin. Prosimy o propozycję wyceny stawki godzi...
Node js crone script that saves new comments / messages from YouTube channel / Facebook fanpage / messenger and instagram to mongodb. Next step is to be able to answer them from frontend
Comapny webpage: Description: To create screenshots (they must be in fig) for the web application being the MVP of the admin panel. It should allow you to order equipment in a specific place. The link below sh...screenshots (they must be in fig) for the web application being the MVP of the admin panel. It should allow you to order equipment in a specific place. The link below shows the idea behind the panel behavior. Currently, there is a second part of the project, which is a platform that allows you to define the destination and equipment for employees. The admin panel must be done in a similar style and color.
Hi Marcin A., I noticed your profile and would like to offer you my project. We can discuss any details over chat. Cześć, Potrzebuję programu w C++ który wyszukuje w drzewie binarnym liście - leaf node. Potrzebny byłby opis i ewentualnie wytłumaczenie laikowi (mi) jak to działa. Program musi "zdać" weryfikację na stosie. Jaka jest twoja cena za realizację zadania? Pozdrawiam, Jarek
Hi Adam, I noticed your profile and would like to offer you my project. We can discuss any details over chat. Cześć, Potrzebuję programu w C++ który wyszukuje w drzewie binarnym liście - leaf node. Potrzebny byłby opis i ewentualnie wytłumaczenie laikowi (mi) jak to działa. Program musi "zdać" weryfikację na stosie. Jaka jest twoja cena za realizację zadania? Pozdrawiam, Jarek
Hi Justyna, I noticed your profile and would like to offer you my project. We can discuss any details over chat. Potrzebuję programu w C++ który wyszukuje w drzewie binarnym liście - leaf node. Potrzebny byłby opis i ewentualnie wytłumaczenie laikowi (mi) jak to działa. Program musi "zdać" weryfikację na stosie. Jaka jest twoja cena za realizację zadania. Przepraszam, coś zamieszałem z tą platformą - to mój pierwszy kontakt z freelancer. Pozdrawiam, Jarek
Hi Justyna, I noticed your profile and would like to offer you my project. We can discuss any details over chat. Potrzebuję programu w C++ który wyszukuje w drzewie binarnym liście - leaf node. Potrzebny byłby opis i ewentaulnie wytłumaczenie laikowi (mi) jak to działa. Program musi "zdać" weryfikację na stosie. Jaka jest twoja cena za realizację zadania. Pozdrawiam, Jarek
Witam, Zadanie ma polegać na napisaniu pary aplikacji - serwera i klienta realizujących autoryzację metodą “UDP port knocking” w Javie. Program ma działać jedynie jako aplikacja konsolowa (wypisywać informacje na konsoli). W wiadomości prywatnej mogę przesłać więcej szczegółów. W pierwszym rzedzie nalezy uruchomic proces serwera. Proces ten o...serie pakietów na kolejne porty podane jako parametry. Po ich wysłaniu oczekuje na komunikat zwrotny zawierajacy numer portu TCP, z którym to nastepnie nawiazuje połaczenie. Po wykonaniu prostej komunikacji z serwerem (typu zapytanie-odpowiedz) rozłacza sie i konczy prace. Jesli sekwencja pakietów UDP jest niepoprawna, odpowiedz od serwera nie przyjdzie. W takim przypadku, po okreslonym czasie (tim...
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firmy - z pliku tekstowego.
Posiadam swojego GitLaba zainstalowaną na Ubuntu Server 18. Chcę podpiąć do niej węzeł kubernetes, niestety o ile jestem w stanie go zaimportować, to już instalacja knative wyrzuca błąd. Szukam kogoś obeznanego z GitLab, kto byłby w stanie wykonać taką integrację z kubernetes. Udostępnię zdalny dostęp do obydwu serwerów. I have my GitLab installed on Ubuntu Server 18. I want to connect the kubernetes node to it, unfortunately if I am able to import it, the knative installation throws an error. I am looking for someone familiar with GitLab who would be able to do this integration with kubernetes. I will provide remote access to both servers.
platnosci, mapa OSM portal podobny w dzialaniu jak olx ale tylko na Polske i z jedna tematyka - nieruchomosci. Prosze o portfolia z jakimis duzymi portalami np ogloszeniowe. cala dokumentacja co potrzeba jest i front end zrobiony (tylko male zmiany) jest on responsywny. Back end ma byc zbudowany od podstaw z mozliwoscia latwego dodawania n...w dzialaniu jak olx ale tylko na Polske i z jedna tematyka - nieruchomosci. Prosze o portfolia z jakimis duzymi portalami np ogloszeniowe. cala dokumentacja co potrzeba jest i front end zrobiony (tylko male zmiany) jest on responsywny. Back end ma byc zbudowany od podstaw z mozliwoscia latwego dodawania nowych funkcji wraz z dobrym opisem. Preferowny github, jakis solidnie opisany jezyk np node, laravel lub symfony + angular/react n...
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Szykamy osoby która podejmie się zrealizowania crawlera, który będzie scrapował dla nas kilka danych z : - Crawler powinien odwiedzić zadany przez nas region np. - wejść w każdą z kategorii jakie są dostępne w menu np. berbershop, fryzjers, kosmetyczka itd. - Odwiedzić wszystkie rekordy (salony) z listingu kategorii i zebrać dla nas dane: - Nr telefonu - Nazwa salonu Jeśli istnieje: - adres www profilu facebook - adres www profilu instagram - adres strony www zatem każdy rekord powinien zawierać min. 2 dane max 5 danych. Dane mogą być zapisane w bazie danych lub w pliku. Program powinien działać na serwerze, moze byc napisany w java, php lub nodejs
Poszukuje programisty do wprowadzenia zmian w projekcie obokmnie.pl. Interesuje mnie wdrożenie płatności Stripe, poprawa błędów dodanie nowych modułów. Poszukuję osoby do stałej współpracy.
Witam, poszukuję osoby, która skonfiguruje siec Bridge dla Slave Node KVM w systemie SolusVM, na serwerze z Hetzner. Pozdrawiam
...Zalozenia logiki: * crawler dodaje oferty do bazy danych * crawler nie dubluje ofert - rozpoznaje juz dodane * crawler normalizuje dane z oferty w zakresie -- podzial administracyjny (wojewodztwo, powiat, gmina, miasto) -- adres -- typ nieruchomosci - dom/mieszkanie/dzialka (rolna, budowlana, lesna etc) -- typ ogloszenia (sprzedaz, wynajem) -- rodzaj ogloszenia (prywatne, posrednik) -- link do strony -- zdjecia -- data utworzenia ogloszenia -- Identyfikator ogloszenia -- cena -- powierzchnia -- dane dodatkowe (liczba pokoi, pieter) -- opis * crawler dotyczy 2 stron (slownie: dwóch stron) z ogloszeniami (strony do uzgodnienia podczas nawiazania kontaktu) * crawler wykrywa blokade stron lub blad serwera Zalozenia techniczne: * crawler posi...
Witam, poszukuje wykonawcy web crawlera ktory ma za zadanie monitorowac zapas produktow w dowolnych wyznaczonych przezemnie sklepach internetowych. Funkcje na ktorych mi zalezy to: 1)Praca w srodowisku windows server. 2) Mozliwosc wczytania adresow url z produktami z pliku 3) zapis wartosci stanu magazynowego w bazie danych 4) mozliwosc ustawienia czestotliwosci pobierania danych z tego samego sklepu np. raz na dzien, raz na godzine, 5) Kreowanie raportu z tego jak zmienial sie stan magazynowy danego produktu w jednostce czasu. 1 dzien, tydzien, itd. 6) mozliwosc zastosowania datacenter proxy i regulowana czestotliwosc rotacji ip
Audit and launch of the application written in Kotlin with back-end on S3 AWS written in JavaScript. I need a service consisting of an audit and running an already written application. ...the one hand, an administrative console through which data (text, image, links) backend is stored and a mobile application that has access to this data. The data is a static list of 100 - 300 records. The current team has developed the application but there are no resources to continue the project. technologies: 1. The server-side application (web application) consists of two projects: - Node backend (NestJS framework) - Front React. 2. Both projects are written in JavaScript. 3. Back-end to be hosted on S3 AWS with a Posgress database. 4. The mobile application is created natively usi...
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod WIndowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Zlecę stworzenie prostego skryptu (najlepiej PHP), który bazując na danych historycznych z giełdy binance i jego api albo lub innych Skrypt będzie pobierał je z api lub z bazy i obliczał "sygnał" kupna na podstawie moich wyliczeń ( mam je w excelu ) wyliczenia nie są trudne, bazują na różnych średnich. 1. Potrzebuje definiować interwały czyli np 5, 15, 30 minut lub 4, 6, 12 godzin. ( api binance wszystko obsługuje ) 2. Potrzebuje definiować pary kryptowalut, dla których ma być pobierane i obliczane np TRXBTC, LTCETH ( api binance wszystko obsługuje ) Nie musi być skomplikowanej grafiki, wystarczą liczby: Np. LTCETH – BUY – 4h – 0,345 np.
Witam Potrzebowałbym edycji aplikacji w node js i selenium + dodatkowo napisania innej nowej Jest program napisany w node js + óły napiszę na pw
Cześć mam zlecenie do wykonania, chodzi o crawler dla otodom
Chcę zmienić wygląd niektórych typów pytań we wtyczce h5p. Poszukuję osoby która zmodyfikuje style na bardziej flat design, zmieni kolory rozmiary czcionek itp... Więcej info na temat wtyczki:
MY Jesteśmy dwuosobowym zespołem z pomysłem w trakcie wdrażania. Nasza aplikacja to MVP gotowy do dalszego rozwoju ... TY Jesteś freelancerm lub "po godzinach" poradzisz sobie z AngularJS + Node + MongoDB ... a bardziej precyzyjnie, to do projektu zostały użyte: * Narzędzia deweloperskie: Node.js, Gulp, Bower * Frontend: Bootstrap 3, Angular 1.6(z wieloma dodatkowymi bibliotekami), , jsPDF, Font-awesome, , webfontloader, Sass * Backend: Async, MongoDB poprzez mongoose, Express, GraphicsMagic, Lodash, Multer, Passport ZADANIA: - dodaniu kilku prostych funkcjonalności "graficznych" - poprawa wydajności - dodanie kont i płatności - zmiana zarządzania bazą danych przez admina - a potem ... cała reszta ... dużo pracy NASZA OFERTA TO: - rozw&oa...
Poszukuje osoby do zarządzania projektem Projekt polega na sklonowaniu/pobranie przedmiotów opisów zdjęć z e-sklepów skatalogowaniu i zaimportowania do naszego sklepu na prestashop. Freelancer za rekrutowany będzie miał do wykonania następujący zakres prac: -Pozyskanie np. tutaj programisty który napiszę Web crawler dla jednej ze stron: -Pobranie kategorii/podkategori/przedmiotów, zdjęć, opisów, specyfikacji, marki, dodatkowych opcji i atrybutów oraz pdf jeśli istnieje do pliku .CSV -Postawienie sklepu na Prestashop, zakup szablonu, grafik i przygotowanie do funkcjonowania działalności sklepu łącznie ze stworzeniem menu kategorii oraz import przedmiotów z wcześniej przygotowanych .CSV
Najprostszy BOK w node.js + najprostsza dokumentacja. Nigdy nie zostanie użyty komercyjnie, jedynie raz zaprezentowany, a dokładniej to chodzi o dokumentację. Użytkownik zgłasza sprawę, dostaje numer sprawy po którym będzie mógł ją znaleźć. Pracownik widzi wpływające zgłoszenia, odpowiada, zamyka sprawy. Czas do końca marca.
witam, potrzebuje prosty skrypt typu crawler-scraper, który wyciągnie określone dane ze stron. przykładowo na witrynie jest 100 stron, na każdej stronie tytuł serialu, nazwa odcinka i link. chciałbym, aby skrypt pobierał te dane z każdej ze 100 stron i zapisał do bazy danych.
Potrzebny mi crawler/scraper oparty na PHP, pozwalający wyszukiwać produkty spośród wybranych sklepów internetowych (Komputronik, , ProLine, NET-S) i pozwalać na synchroniczne zakupy (wspólny wirtualny koszyk dla wszystkich). Wyświetlanie produktów powinno być możliwe do edycji w oparciu o CSS. Potrzebna jest również możliwość filtrowania produktów (chodzi o części komputerowe) wg filtrów, używanych w tych sklepach.
Poszukję Programisty PHP ze znajomością Node.JS do nowo powstałego, innowacyjnego projektu. Do zadań będzie należało: stworzenie API, budowa serwisu www oraz rozwój aplikacji mobilnych. Oferujemy ok. 3 miesięczny projekt, z możliwością pracy zdalnej. Oferowana stawka 50 - 65 zł/h netto. Poniżej wymagane technologie: PHP 5 PHP frameworks (np. Zend, Symphony) Programowanie obiektowe Javascript (JQuery, Mootools) Node.JS Relacyjne bazy danych (MySQL)
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs. Wdrożyć całość na EC2
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs.
Witam, poszukuje osoby, która napisze plugin do serwera CSGO. Plugin ma działać wymuszać wyłączenie MOTD serwera na X czasu (np. 15 sekund) po tym czasie będzie pojawiał się przycisk OK, który zamyka okno MOTD. Czekam na propozycje, pozdrawiam.
Witam, potrzebuję prostęgo parsera/crawlera stron internetowych, który: 1. Pobierze adres z danej mu listy serwisów internetowych i przejrzy wszystkie podstrony z danego adresu (kilka poziomów wgłąb, pozostając w jednej domenie). 2. Przeglądając podstrony wychwyci teksty pasujące do podanych razem z adresem wyrażeń regularnych (2- 3 wyrażenia). 3. Zapisze wyniki, np. w formie pliku CSV. 4. Po przejrzeniu podstron danego serwisu przejdzie do następnego serwisu z listy. Podsumowując, na wejściu mamy listę: [adres1], [wyrazenie reguralne 1], wyrazenie regularne 1] ... [adresX], [wyrazenie reguralne Xa], wyrazenie regularne Xb] A wynikiem prac jest lista plik w formacie: [podstrona 1 adresu 1], [test pasujący do wyrażenia 1], [tekst pasujący do wyrażenia 2...
Chciałbym zlecić napisanie programu, który działałby w sposób podobny do tego programu: Zależy mi żeby taki program mógł chodzić po stronach internetowych i zczytywać z nich linki do zewnętrznych stron. Przykład: chciałbym, żeby program podał mi listę wszystkich domen znajdujących się we wskazanym przeze mnie katalogu stron w sekcji 'medycyna'. Bardzo istotna jest tutaj możliwość zawężania crawlingu do określonych sekcji witryn. Można to zrobić np. po filtracji adresów url, które muszą zawierać np. jakiś ciąg znaków np 'medycyna'. Dodatkowo na samym końcu pracy program powinien w prosty sposób sprawdzać, czy dana domena istnieje, czy też nie. Może być to sprawdzane po nagłówkach. Nie ma potrzeby odpyty...
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Witam potzebuje aplikacje ktora pobierala by dane z ksiag wieczystych na podstawie listy nr ksiag oraz przechowywala dane w jakiejs tabeli dodatkowo aplikacja powinna miec zintegrowana obsluge Czy jest mozliwe wykonanie takiego zlecenia, jaka cena?
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Zlecę skrypt który uruchomiony pobierze z wybranych sklepów internetowych listę wszystkich produktów, a następnie z ich indywidualnych stron specyfikację każdego produktu i zebrane dane wgra do bazy MySQL, a obrazki do folderu "images". Skrypt będzie regularnie uruchamiany i w razie wykrycia zmiany ceny produktu ma ją aktualizować w bazie. Celem jest monitorowanie produktów pięciu z góry określonych sklepów internetowych. Tylko backend, zadnych widocznych elementów - chce po prostu te dane mieć w MySQL.
Stworzenie “backend’u” systemu do testów na stronie internetowej. Narzędzie do testów umożliwia testowanie wielu wersji strony internetowej. Każda wersja składa się z jednej lub większej ilości elementów (np. tytuł, kolor przycisku itp.). „Back-end” składa się z: • Bazy danych MySQL (na serwerze narzędzia do testowania) • Krótkiego kodu JavaScript do wklejenia na...testowanej stronie musi być jak najbardziej niezależny od zewnętrznych bibliotek chociaż jQuery prawdopodobnie będzie musiało zostać użyte. • Ważna jest szybkość, przede wszystkim sprawdzania czy dany odwiedzający powinien wziąć udział w teście/testach i zwracania contentu dla danego elementu strony. Content musi być dopasowany w ciągu wczytywania str...
Poszukiwana osoba do wykonania projektu na temat crawlingu w pythonie 3.0 Projekt krótki, udostępniam materiały potrzebne w tworzeniu kodu.
Zlecę wykonanie projektu tj: -stworzenie kodu w języku python 3 (zagadnienie główne crawler zasobów) -objaśnienie go tj. funkcjonowanie Do projektu dołączam potrzebną literaturę w postaci pdfów. Wystarczy gotowe wzory przekształcić w kod. Nie ukrywam, że liczy się dla mnie cena, ale też skuteczność więc liczę na korzystny kompromis dla obu stron :)
Szukamy osoby lub firmy, która wykona dla nas aplikacje deskotopową- crawlera, która: - pobiera dane on line ze specjalnego pliku wymiany ( do uzgodnienia) razem z konfiguracją - odwiedza adresy z pliku, pobiera o nich dane (size, status, whois, ip, treśc tagu title, description, keywords) - przesyła pobrane dane na serwer - odpowiednio skonfigurowany potrafi podążać dodatkowo za linkami wewnętrznymi ( w danej domenie ) - zdalnie konfigurowany potrafi sprawdzać dodatkowe parametry (wyrażenia regularne) np treść pierwszego tagu h1, - słucha poleceń , przedstawia się poprawnie - konfiguracja po stronie użytkownika: liczba jednoczesnych połączeń, limit transferu, autouruchamianie po starcie - współdziała uruchomiony na raz na wielu maszynach Technologia po stronie se...
Zlecę napisanie programu typu Web Crawler, który będzie mógł ściągać wiadomości oraz artykuły z jak największej ilości podstron z portali , , interia.pl. Dane powinny być podzielone na pliki tekstowe, których rozmiar nie będzie przekraczał 10MB. Idealnie jedno zdanie - jedna linia. Program powinien działać pod Ubuntu i nie powielać ściągniętych już danych, jak również powinien je ściągać co jakiś czas, tak aby nie zablokowano adresu IP.
...SVN umiejętność posługiwania się w systemie Redmine znajomość zagadnień związanych z bezpieczeństwem, wydajnością aplikacji internetowych umiejętność dokumentowania kodu (wymagana dokumentacja kodu + dokumentacja online) umiejętność testowania kodu (wymagane testy jednostkowe) znajomość biblioteki cURL lub pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest automatyczna publikacja ofert na wcześniej wyszczególnionych serwisach (około 5) typu oferty pracy/zleceń. Aplikacja przesyła przygotowane dane poprzez zalogowanie się (bez captchy) na danym serwisie (konta wcześniej już są utworzone) i publikację zlecenia/oferty. Przesyłane dane w formie ustalonego wcześniej szablonu będą dobie...
...SVN umiejętność posługiwania się w systemie Redmine znajomość zagadnień związanych z bezpieczeństwem, wydajnością aplikacji internetowych umiejętność dokumentowania kodu (wymagana dokumentacja kodu + dokumentacja online) umiejętność testowania kodu (wymagane testy jednostkowe) znajomość biblioteki cURL bądź pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest indeksacja ofert pracy/zleceń z wyszczególnionej listy serwisów (około 5). Zdobyte wyniki powinny być składowane w odpowiednio zaprojektowanej bazie danych. Aplikacja będzie uruchamiana w tle na serwerze w równych odstępach czasu. Aplikacja powinna zawierać limity czasu odpowiedzi na zapytania oraz umożliwić logow...
...animacja i sterowanie graczem - generowanie przykładowej planszy - animacja i ruch przeciwników - czat Kod jest bardzo dobrze opisany: ;usp=sharing W linku znajdują się dwa zipy: jeden z kodem gry, aby go uruchomić trzeba zainstalować noda: Uruchomić Node.js command prompt i będąc w katalogu gry wydać polecenie node , nastepnie uruchomić przeglądarkę i wpisać adres http://localhost:8080/ oraz drugi z opisem całej gry. Dodatkowo jest też pdf z odpowiedziami na niektóre pytania dotyczące kodu. Szukam programisty, który będzie w stanie dodać do gotowego kodu brakujące elementy: - funkcję dzielenia mapy, żeby gracze mogli ze sobą walczyć na jednej planszy - przechodzenie graczy do nowych poziomów - brakujące