Meddelande

Minska
No announcement yet.

Backup-script för hemsida, cgi/php/perl.

Minska
X
 
  • Filter
  • Klockan
  • Show
Clear All
new posts

  • Backup-script för hemsida, cgi/php/perl.

    Hej!

    Jag skulle vilja skapa ett script som skapar en .zip eller .gzip (spelar ingen roll, bara allt packas "oförstört") av allt, rekursivt, under ett visst directory på en UNIX-server som hostar mina hemsidor och lägger den packade filen i detta directory.

    En backup, helt enkelt, som jag enkelt kan tanka hem via ftp, när de är klar. Att tanka hem några tusen filer (fotoalbum) utan ständiga avbrott verkar tyvärr knepigare, för min ftp-klient. En enda fil verkar vara lösningen, plus att en sådan är lättare att hålla reda på.

    Om scriptet körs genom att jag t.ex. klickar på en knapp på en av mina hemsidor, eller vid vissa datum/tider - spelar ingen roll - det kan jag fixa själv, tror jag...

    På något sätt vill jag gärna även kunna kolla om filen är färdigpackad, så att jag inte försöker mig på att tanka hem den för tidigt. Det går ju att kika via ftp, "om filen växer", men det känns inte helt tillförlitligt. Jag har inte tillgång till telnet till servern.

    Det handlar nästan uteslutande om bilder (.jpg, .bmp) och webbsidor (.php, .htm, .html), samt ett par script (.pl) och några få filmsnuttar (.wmv, .avi).

    Är ett sådant backup-script något som är möjligt att skapa med ett par enkla rader i en befintlig .php- eller .pl-fil?

    Tusen tack på förhand för all hjälp jag kan få!

    /Pelle
    /Pelle

  • #2
    Först för att svara på din fråga. Själv använder jag Archive::Zip i en del script för att skapa zip-arkiv, och rent teoretiskt skulle man kunna använda det för att zippa ihop hela din site. Första kravet är givetvis att ditt webbhotell har detta installerat. Sedan skulle det behöva köras via crontab (unix) eftersom det med största sannolikhet skulle ta för lång tid att göra det via ett vanligt http->cgi anrop (du skulle få timeout och scriptet bli terminerat mitt i körningen) i och med att det är så många filer, så crontab blir då ett andra krav. MEN, den stora frågeställningen är varför? I princip alla webbhotell har backup på sina siter (har de inte det skulle jag starkt rekommendera att byta). Att din ftp-klient inte hanterar många filer är givetvis ett annat intressant problem, men det är ju rättså lätt att fixa genom att byta ftp-klient
    / Jojoxx

    "Always remember that you're unique and special, just like everyone else..."

    Kommentera


    • #3
      Tjena Jojoxx!

      Jag tror inte att mitt webbhotell har Archive::Zip. Inte heller får jag tillgång till crontab eller ens telnet. Jag kommer inte heller att fråga.

      Varför jag vill ha en egen backup, lokalt? Jo, för att jag själv vill ha koll på och tillgång till alla mina data, utan att behöva fråga admin på webbhotellet om att göra en backup. Som det är nu, har jag bara inkrementella ändringar, här och där, vilket gör det oerhört knepigt att återställa en komplett "miljö".

      Vilken ftp-klient skulle du rekommendera? Jag kör med SmartFTP sedan många år och jag tror faktiskt inte att det beror på applikationen - att det blir "time out" och jag får starta om och starta om och till slut har jag fått hem allt - men vem vet...? ;-)
      /Pelle

      Kommentera


      • #4
        Personligen skulle jag ha ett komplett arkiv hemma och sedan uppdatera inkrimentiellt till hemsidan. Att ha en enkelriktad spegling brukar inte vara några större problem, de brukar uppstå när filer uppdateras samtidigt på båda sidor. Men det borde ju inte vara ett probem i ditt fall.

        Jag har länge använt FlashFXP. SmartFTP är ju heller inte helt okänt, så det ska ju inte vara några problem, men uppenbarligen är det något som inte är som det ska. Låter som klassisk felsökning - uppenbarar sig problemet mot andra ftp-servrar? Har du problem med andra applikationer och protokoll? Ja, du vet...
        / Jojoxx

        "Always remember that you're unique and special, just like everyone else..."

        Kommentera


        • #5
          Jodå, det är rätt - jag gör normalt sett endast inkrementella ändringar, men det finns undantag, då jag har ett par stationära datorer hemma och två laptopar i jobbet, och reser en del. Det innebär att jag gör en ändring här och en där, tyvärr. Så nu har jag ingen uppdaterad "spegel" av HELA min hemsida, som dessutom består av flera domäner/hemsidor... Jag får väl sätta igång en download nu, med SmartFTP, och om det inte fungerar, får jag testa med FlashFXP. Tack för tipsent
          /Pelle

          Kommentera


          • #6
            Efter två timmar (har bara en 8 Mb/s-lina) säger SmartFTP så här:
            426 Failure writing network stream.
            Transfer failed.
            Kanske dags att byta ftp-SW - eller webbhotell (fast jag är OERHÖRT nöjd med det jag har sedan flera år!)...?
            /Pelle

            Kommentera


            • #7
              Ja, prova att byta ftp-klient. Det är ju en enkelt åtgärd.
              / Jojoxx

              "Always remember that you're unique and special, just like everyone else..."

              Kommentera


              • #8
                Det är inget fel på din ftp-klient, kör den sjäklv utan minsta problem.

                För att komma runt timeout problemet, kan du prova köra i aktivt läge istället än passive, för att se om det hjälper.

                Angående backupen, så har de flesta webbhotell kontrollpaneler där du kan lyfta hem dina egna backups. Kan du inte det, be dem skapa en crontab som packar ner de aktuella filerna, låt säga varje natt och placera dem i en katalog som du kan nå med ftp. Fixar de inte det, så är det kanske dags byta!

                Kommentera

                Working...
                X