What is a crawlerprojekty
I have a task to create a simple desktop application from biological databases based on a database that I have initially created, I have no idea at what level the database is made. I would need help with this project quickly because. the database is in SQL and the application does not matter, the most desirable one is in access, java In general, the project is not supposed to be complicated, it is supposed to be a desktop application in which it will be possible to search for information from a database. I just started the topic of astronomical observations, but I had a problem with the relationships between tables in this topic, so later I started a different topic, but it is In general, it ...
Poszukujemy osoby zdolnej do zaprogramowania narzędzia, które umożliwi nam analizę i selekcję informacji na stronach www. Celem jest stworzenie zaawansowanej bazy danych, która pozwoli na efektywne sortowanie i filtrację stron według specyficznych parametrów, takich jak poziom aktywności użytkowników. Naszym priorytetem jest zgromadzenie i organizacja informacji w sposób umożliwiający łatwe zarządzanie i dostęp do danych.
Cześć, Szukam kogoś, kto będzie w stanie wykonać dla mnie stronę internetową od podstaw. Wytyczne: - strona w formie katalogu - każdy produkt będzie miał tytuł, opis, kilka zdjęć oraz kilka krótkich dodatkowych informacji - potrzebny crawler, który będzie pobierał automatycznie dane tekstowe oraz zdjęcia z innej strony - zarządzanie treścią z poziomu panelu administracyjnego
Poszukujemy oprogramowania pobierającego określone dane ze wskazanych stron web (określimy dokładnie wszystkie potrzebne dane), oraz zapisaniu ich do bazy danych. Baza danych będzie znajdywać się w chmurze AWS (RDS).Web scraper może działać jako serverless worker bądź jako skrypt odpalany na komputerze. Model danych w bazie danych musi być stworzony tak aby odczyt był prosty i szybki. Obecne wyżej wymieniona strona posiada zabezpieczenia przed web scrgapingiem.
Preferowana, ale nie wymagana platforma: C# .NET lub C Kompilacja + źródła Crawler będzie operował na wcześniej przygotowanych plikach. Logowanie na numer GG Wysyłanie wiadomości. Przepływ numerów między plikami: 'do wysłania' -> 'wysłano' Rotacja numerów wysyłających. Konfiguracja w pliku: - rotate: co ile wiadomości ma nastąpić przelogowanie - delay: co ile ma zostać wysłana kolejna wiadomość, wartość losowa z zakresu od-do Plik nadawców: kolumna numer-hasło Plik odbiorców: kolumna numerów Plik przetworzonych odbiorców: kolumna numerów Plik z treścią wiadomości Interfejs: Start/Stop
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firmy - z pliku tekstowego.
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Szykamy osoby która podejmie się zrealizowania crawlera, który będzie scrapował dla nas kilka danych z : - Crawler powinien odwiedzić zadany przez nas region np. - wejść w każdą z kategorii jakie są dostępne w menu np. berbershop, fryzjers, kosmetyczka itd. - Odwiedzić wszystkie rekordy (salony) z listingu kategorii i zebrać dla nas dane: - Nr telefonu - Nazwa salonu Jeśli istnieje: - adres www profilu facebook - adres www profilu instagram - adres strony www zatem każdy rekord powinien zawierać min. 2 dane max 5 danych. Dane mogą być zapisane w bazie danych lub w pliku. Program powinien działać na serwerze, moze byc napisany w java, php lub nodejs
...Zalozenia logiki: * crawler dodaje oferty do bazy danych * crawler nie dubluje ofert - rozpoznaje juz dodane * crawler normalizuje dane z oferty w zakresie -- podzial administracyjny (wojewodztwo, powiat, gmina, miasto) -- adres -- typ nieruchomosci - dom/mieszkanie/dzialka (rolna, budowlana, lesna etc) -- typ ogloszenia (sprzedaz, wynajem) -- rodzaj ogloszenia (prywatne, posrednik) -- link do strony -- zdjecia -- data utworzenia ogloszenia -- Identyfikator ogloszenia -- cena -- powierzchnia -- dane dodatkowe (liczba pokoi, pieter) -- opis * crawler dotyczy 2 stron (slownie: dwóch stron) z ogloszeniami (strony do uzgodnienia podczas nawiazania kontaktu) * crawler wykrywa blokade stron lub blad serwera Zalozenia techniczne: * crawler posi...
Witam, poszukuje wykonawcy web crawlera ktory ma za zadanie monitorowac zapas produktow w dowolnych wyznaczonych przezemnie sklepach internetowych. Funkcje na ktorych mi zalezy to: 1)Praca w srodowisku windows server. 2) Mozliwosc wczytania adresow url z produktami z pliku 3) zapis wartosci stanu magazynowego w bazie danych 4) mozliwosc ustawienia czestotliwosci pobierania danych z tego samego sklepu np. raz na dzien, raz na godzine, 5) Kreowanie raportu z tego jak zmienial sie stan magazynowy danego produktu w jednostce czasu. 1 dzien, tydzien, itd. 6) mozliwosc zastosowania datacenter proxy i regulowana czestotliwosc rotacji ip
Witam, Poszukuje osoby z bardzo dobrym angielskim pisanym do tłumaczenia moich tekstów reklamowych na język angielski. W wiekszosci beda to teksty reklam (200-500 slow) Co jakis czas również artykuły (1000-2000 slow) Szukam kogoś kreatywnego, nie tylko zdby tłumaczył ząb w ząb to co mu wyśle ale również szukał ciekawych zamienników i zwrotów które np lepiej jest użyć w danym przypadku. Prosze podać swoją cene za 1000 slow. Od tego zaczniemy. P.S. Prosze pisać do mnie na Ty! Pozdrawiam Krzysiek
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod WIndowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Cześć mam zlecenie do wykonania, chodzi o crawler dla otodom
Poszukuje osoby do zarządzania projektem Projekt polega na sklonowaniu/pobranie przedmiotów opisów zdjęć z e-sklepów skatalogowaniu i zaimportowania do naszego sklepu na prestashop. Freelancer za rekrutowany będzie miał do wykonania następujący zakres prac: -Pozyskanie np. tutaj programisty który napiszę Web crawler dla jednej ze stron: -Pobranie kategorii/podkategori/przedmiotów, zdjęć, opisów, specyfikacji, marki, dodatkowych opcji i atrybutów oraz pdf jeśli istnieje do pliku .CSV -Postawienie sklepu na Prestashop, zakup szablonu, grafik i przygotowanie do funkcjonowania działalności sklepu łącznie ze stworzeniem menu kategorii oraz import przedmiotów z wcześniej przygotowanych .CSV
witam, potrzebuje prosty skrypt typu crawler-scraper, który wyciągnie określone dane ze stron. przykładowo na witrynie jest 100 stron, na każdej stronie tytuł serialu, nazwa odcinka i link. chciałbym, aby skrypt pobierał te dane z każdej ze 100 stron i zapisał do bazy danych.
Potrzebny mi crawler/scraper oparty na PHP, pozwalający wyszukiwać produkty spośród wybranych sklepów internetowych (Komputronik, , ProLine, NET-S) i pozwalać na synchroniczne zakupy (wspólny wirtualny koszyk dla wszystkich). Wyświetlanie produktów powinno być możliwe do edycji w oparciu o CSS. Potrzebna jest również możliwość filtrowania produktów (chodzi o części komputerowe) wg filtrów, używanych w tych sklepach.
Potrzebny programista Ruby on Rails. Doświadczony. Najlepiej z okolic Śląska.
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs. Wdrożyć całość na EC2
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs.
03335855511 plz contact....................................................................................................................................................
03335855511 plz contact....................................................................................................................................................
...Przeglądając podstrony wychwyci teksty pasujące do podanych razem z adresem wyrażeń regularnych (2- 3 wyrażenia). 3. Zapisze wyniki, np. w formie pliku CSV. 4. Po przejrzeniu podstron danego serwisu przejdzie do następnego serwisu z listy. Podsumowując, na wejściu mamy listę: [adres1], [wyrazenie reguralne 1], wyrazenie regularne 1] ... [adresX], [wyrazenie reguralne Xa], wyrazenie regularne Xb] A wynikiem prac jest lista plik w formacie: [podstrona 1 adresu 1], [test pasujący do wyrażenia 1], [tekst pasujący do wyrażenia 2] [podstrona 2 adresu 1], [test pasujący do wyrażenia 1], [tekst pasujący do wyrażenia 2] ... [podstrona X adresu X], [test pasujący do wyrażenia reg. 1X], [tekst pasujący do wyrażenia reg. 2X] Technologia wykonania jest w zasadzie dowolna (w ...
Chciałbym zlecić napisanie programu, który działałby w sposób podobny do tego programu: Zależy mi żeby taki program mógł chodzić po stronach internetowych i zczytywać z nich linki do zewnętrznych stron. Przykład: chciałbym, żeby program podał mi listę wszystkich domen znajdujących się we wskazanym przeze mnie katalogu stron w sekcji 'medycyna'. Bardzo istotna jest tutaj możliwość zawężania crawlingu do określonych sekcji witryn. Można to zrobić np. po filtracji adresów url, które muszą zawierać np. jakiś ciąg znaków np 'medycyna'. Dodatkowo na samym końcu pracy program powinien w prosty sposób sprawdzać, czy dana domena istnieje, czy też nie. Może być to sprawdzane po nagłówkach. Nie ma potrzeby odpyty...
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Witam potzebuje aplikacje ktora pobierala by dane z ksiag wieczystych na podstawie listy nr ksiag oraz przechowywala dane w jakiejs tabeli dodatkowo aplikacja powinna miec zintegrowana obsluge Czy jest mozliwe wykonanie takiego zlecenia, jaka cena?
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Zlecę skrypt który uruchomiony pobierze z wybranych sklepów internetowych listę wszystkich produktów, a następnie z ich indywidualnych stron specyfikację każdego produktu i zebrane dane wgra do bazy MySQL, a obrazki do folderu "images". Skrypt będzie regularnie uruchamiany i w razie wykrycia zmiany ceny produktu ma ją aktualizować w bazie. Celem jest monitorowanie produktów pięciu z góry określonych sklepów internetowych. Tylko backend, zadnych widocznych elementów - chce po prostu te dane mieć w MySQL.
Poszukiwana osoba do wykonania projektu na temat crawlingu w pythonie 3.0 Projekt krótki, udostępniam materiały potrzebne w tworzeniu kodu.
Zlecę wykonanie projektu tj: -stworzenie kodu w języku python 3 (zagadnienie główne crawler zasobów) -objaśnienie go tj. funkcjonowanie Do projektu dołączam potrzebną literaturę w postaci pdfów. Wystarczy gotowe wzory przekształcić w kod. Nie ukrywam, że liczy się dla mnie cena, ale też skuteczność więc liczę na korzystny kompromis dla obu stron :)
Szukamy osoby lub firmy, która wykona dla nas aplikacje deskotopową- crawlera, która: - pobiera dane on line ze specjalnego pliku wymiany ( do uzgodnienia) razem z konfiguracją - odwiedza adresy z pliku, pobiera o nich dane (size, status, whois, ip, treśc tagu title, description, keywords) - przesyła pobrane dane na serwer - odpowiednio skonfigurowany potrafi podążać dodatkowo za linkami wewnętrznymi ( w danej domenie ) - zdalnie konfigurowany potrafi sprawdzać dodatkowe parametry (wyrażenia regularne) np treść pierwszego tagu h1, - słucha poleceń , przedstawia się poprawnie - konfiguracja po stronie użytkownika: liczba jednoczesnych połączeń, limit transferu, autouruchamianie po starcie - współdziała uruchomiony na raz na wielu maszynach Technologia po stronie se...
Zlecę napisanie programu typu Web Crawler, który będzie mógł ściągać wiadomości oraz artykuły z jak największej ilości podstron z portali , , interia.pl. Dane powinny być podzielone na pliki tekstowe, których rozmiar nie będzie przekraczał 10MB. Idealnie jedno zdanie - jedna linia. Program powinien działać pod Ubuntu i nie powielać ściągniętych już danych, jak również powinien je ściągać co jakiś czas, tak aby nie zablokowano adresu IP.
...systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest automatyczna publikacja ofert na wcześniej wyszczególnionych serwisach (około 5) typu oferty pracy/zleceń. Aplikacja przesyła przygotowane dane poprzez zalogowanie się (bez captchy) na danym serwisie (konta wcześniej już są utworzone) i publikację zlecenia/oferty. Przesyłane dane w formie ustalonego wcześniej szablonu będą dobierane indywidualne dla potrzeb poprawnej walidacji danego serwisu (osobny szablon dla każdego serwisu, tak aby dane były prawidłowo przyjmowane). Aplikacja powinna zawierać limity czasu odpowiedzi na zapytania oraz umożliwić logowanie błędnych zdarzeń. Budowa aplikacji powinna być warstwowa (zwierać warstwy wyższe (interfejsy), możliwość wykorzystania wzorców proj...
...(wymagane testy jednostkowe) znajomość biblioteki cURL bądź pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest indeksacja ofert pracy/zleceń z wyszczególnionej listy serwisów (około 5). Zdobyte wyniki powinny być składowane w odpowiednio zaprojektowanej bazie danych. Aplikacja będzie uruchamiana w tle na serwerze w równych odstępach czasu. Aplikacja powinna zawierać limity czasu odpowiedzi na zapytania oraz umożliwić logowanie błędnych zdarzeń. Budowa aplikacji powinna być warstwowa (zwierać warstwy wyższe (interfejsy), możliwość wykorzystania wzorców projektowych), a także obsługiwać własne zdefiniowane wyjątki. Wymagania aplikacji: aplikacja napisana...
Poszukuję bardzo dobrego programisty php, wdrożenia oparte na silniku sphinx, crawler
Witam, Zlece pozyskanie klientow na aplikacje Crawler, sluzaca do tworzenia baz teleadresowych. Strona aplikacji Wynagrodzenie: 30% od wartosci sprzedanej licencji. Cena aplikacji moze byc rozna w zaleznosci ile modulow aplikacji zakupi klient.
Witam, Potrzebuje jakby to nazwać: skrypt/bot/crawler, który będzie imitował wejście na konkretną witrynę i jej podstrony. Skrypt ma działać na takiej zasadzie, że uruchamiam go ręcznie lub automatycznie np co dwa dni i odwiedza strony które sa dopisane (w zależności od potrzebny linki do podstron, mogę wprowadzić ręcznie, jednak lepszą opcją jest dodanie tylko domeny głównej, a niech sam szuka wszystkich podstron - np jak generatory map stron w necie). Działanie skryptu ma imitować naturalne wejście na strone przez użytkownika, czyli ma to byc widoczne np na liczniku odwiedzin + plus ma uruchomić skrypt php, który jest wrzucony na stronę. W skrócie uruchomienie skryptu na konkretnej witrynie/podstronie ma być równoważne temu jakby cz...
Crawler odwiedzjacy strony przez rozne IP z Polski, mala czestotliwosc do kilkuset na dzien. Mozliwosc sterowania czasem i intensywnoscia wejsc , oraz wybor podstron do odwiedzin. Brak zbierania danych oprocz pomiaru raz na jakis czas czasu otwierania witryny.
Zlecę napisanie programu, który zbierałby dane firm z serwisów typu PKT i zapisywał je do pliku. Więcej informacji na maila. Ewentualnie proszę przesłać swój nr. telefonu, zadzwonię.
...nowy plik z URLami gdzie jest ich 400k :-) (to juz mam) Trzeba z tych URLi wyciagnac "URLe zawierajace unikalne domeny" (nie mylic z "unikalne domeny z urli") zostaje ok 250k :-) (mam w pythonie kod do udostepnienie) Aplikacja ma wykryc nowy plik z urlami i odwiedzic wszystkie te strony :-) Jak je odwiedzi to sobie gdzies zapisuje zeby tego pliku juz wiecej nie obrabiac a sam plik pakuje i zostawia. Najwazniejsze ;p po podbraniu danej strony (same zrodlo, bez grafiki,ciasteczek,css itp) aplikacja szuka ciagow znakow (plik konfiguracyjny) jezeli dany ciag znajduje to taki url umieszcza w pliku danej grupy /wyniki/ O co chodzi z grupami? Plik konfiguracyjny ma wygladac cos w stylu: G:blogi wordpress blogger G:cms joomla drupal
...powinno wyglądać tak że jest obramowanie jak na przykładzie z facebooka plus tabela z podzialem linków (wersja 64bit / mirrory do obecnej wersji / starsze wersje) 2)Galeria Panel adminitracyjny Dynamiczne dodawanie kolejnych skrinów (analogicznie jak w linki podpunkt 1) -> sprawdzanie czy obraz skrina jest mniejszy od 800-600 jeśli nie to konwertowanie do tego rozmiaru. 3)Web Crawler Klasa pajączka przeszukującego witryne wskazaną witryne i ściągająca odpowiednie dane. bliższe info na maila - Można skrzystać z gotowej klasy web crawlera. 4)Rejestracja użytkowników Chciałbym aby rejestracja użytkowników opierała się na bazie użytkowników z eupload.pl. Walidacja treści bez przeładywania strony (ajax) w okienku rejestrac...
Witam Serdecznie, proszę o wycenę robota (crawlera) jednego lub wielu pobierającego dane z 30 głównych portali ogłoszeń nieruchomości. Podstawowe wytyczne co do robota: 1. Praca online - pojawiają się nowe ogłoszenia, powinny być zapisywane w bazie danych 2. Wyciąganie za pomocą wyrażeń regularnych XPATH i innych metod danych o nieruchomościach 3. Ciekawsze kwestie do rozwiązania: - niektóre portale nie umożliwiają wyświetlania wszystkich ogłoszeń, trzeba przechodzić po województwach i typach nieruchomości aby dotrzeć do konkretnego -portale dzielą się na ogłoszenia promowane i niepromowane - trzeba znaleźć algorytm przechodzenia do ogłoszeń niepromowanych w sposób automatyczny (allegro) -niektóre portale nie mają sortowanie ogłoszeń po dacie ...
...programistę II. Założenia ogólne: 1. Zaprojektowanie tematycznej wyszukiwarki internetowej w skład której wchodzić ma Front End, Back End oraz Crawler stron WWW. 2. Technologia wykonania wyszukiwarki: JAVA (servlets + jsp) + Cassandra, lub JAVA (servlets + jsp) + MySQL, oraz doraźnie dynamiczne elementy wykonane w JavaScript/AJAX/JSON/YouNameIt 3. Środowisko działania: wyszukiwarka będzie funkcjonował w środowisku UNIX; podczas projektowania od razu należy nastawić się, że skrypt będzie dość mocno obciążony. Front End będzie stał za loadbalancerem + klaster WWW, oddzielny klaster dla bazy danych, nielimitowaną ilość samodzielnych nodów pod Crawler 4. Możliwość wykorzystania istniejących komponentów dostępnych na wolnych licencjac...
Chodzi o logo grupy. Prosty pisany delikatnie zaokrągloną czcionką napis "Say What", uderzająca prostota. Say What to grupa muzyków łączących soul, funk i hip hop. Liczymy na ciekawe pomysły.
Szukam sprytnych osób lubiących i znających się na pisaniu crawlerów, spiderów i tym podobnych spraw. Zlece napisanie crawlerow i spiderow nawet wiecej niz 1 osobie gdyz do napisania w najbliższym czasie od kilkunastu do kilkudziesięciu robaków. Chętni powinni być z Krakowa. Proszę o kontakt na email @ wraz z krotkim info o sobie pod katem powyzszych zapotrzebowan czyli np. dosiwadczenie w podobnych programach. CV mile widziane choc na tym etapie nie niezbedne.
...że po kliknięciu na poszczególną "zakładkę" będzie gdzieś przenosić; - Przerobić CSS modułu ArtForms tak żeby wyświetlał zdjęcie jako tło. W projekcie będą dwa formularze z dwoma różnymi zdjęciami w tle; - Zmodyfikowanie menu Joomli do wyglądu przedstawionego na projekcie; - Pomoc w zmienieniu tła modułu images crawler oraz modułu do wyświetlania galerii (jeszcze nie zdecydowałem co to będzie za moduł) Należy brać pod uwagę ewentualne drobne poprawki szablonu zgodnie z sugestiami klienta. Zlecenie łatwe szybkie i przyjemne. W razie konieczności zapewniam Joomla na moim serwerze z wszystkimi potrzebnymi modułami + dostęp do serwera. Rozliczenie najchętniej przy
Witam, Poszukuję osoby która napisze w php crawler/harvester czyli skrypt do pobierania danych. Skrypt ten powinien łączyć się przez strony typu web proxy () lub zwykłe proxy. Zatem najpierw pobiera listę dostępnych proxy a następnie wybiera losowo jeden i łączy się z docelową stroną. Wykonanie w cURL + preg_match Przykładowy skrypt powinien pobierać np. ogłoszenia automoto wraz z danymi i linkami do zdjęć a następnie dane zapisywać w mysql. Posiadamy już wykonany taki skrypt zatem pozostało zaimplementowanie kodu odpowiadającego za łączenie przez proxy + dopasowanie zrzutu danych do aktualnej struktury mysql. Proszę o: 1) wycenę napisania takiego kodu (proxy) 2) koszt godziny pracy podczas dopasowywania do mysql. 3) określenie czasu wykonania ...
Potrzebuję kogoś kto potrafi pisać crawlery. Zadania będą polegały na przejrzeniu wybranych sklepów internetowych i wydobyciu z nich informacji na temat asortymentu (Kategoria, Podkategoria, Podkategoria II rzędu, Nazwa produktu, Marka, Cena, Opis, Kod EAN, Jednostka miary, Miara). Uwaga: Proszę podać skąd jest zleceniobiorca (miasto) oraz łatwy namiar kontaktowy (najlepiej telefon). Bez tych danych oferty usuwam. Forma realizacji: umowa o dzieło, może być faktura. Proszę o podawanie kwoty brutto w przypadku umowy o dzieło i kwoty netto w przypadku faktury.
Potrzebuję kogoś kto potrafi pisać crawlery. Zadania będą polegały na przejrzeniu stron wybranych sklepów internetowych i wydobyciu z nich informacji statystycznych na temat np. asortymentu. Uwaga: Proszę podać skąd jest zleceniobiorca. Bez podanego miasta będę usuwał bez zastanawienia się. Forma realizacji: umowa o dzieło, może być faktura. Proszę o podawanie kwoty brutto w przypadku umowy o dzieło i netto w przypadku faktury.
Zlecę wykonanie (może być dostosowanie już istniejącego) skryptu w PHP do generowania Sitemap'y dla Googla w XML dla strony w PHP/HTML, ok. 1000-1500 stron. Podstawowe wymagania: 1) musi to być crawler (nie korzystać z systemu plików na serwerze) 2) bez bazy danych 3) + strona do administrowania - tylko z jednym przyciskiem generuj i wyślij do Google, Bing, Yahoo 4) skrypt zezwalający na stosowanie względnych i bezwzględnych ścieżek url i mod_rewrite 5) dodanie dodatkowych linków (hardcoded) to na początek tyle informacji (w razie pytań proszę o mail) cena - max. 19.99USD ok. 100PLN - tyle kosztuje gotowy skrypt Unlimited Sitemap Generator, który doskonale sobie z tymi wymaganiami radzi, zatem szukam tańszej opcji