HoiDanny,
Het trefwoord voor dit verschijnsel is "html compressie" of "html optimalisatie".
Uit het Dreamweaver-manual maak ik op dat de DW-settings hier maar gedeeltelijk voor kunnen zorgen: alleen alle "indents" (ingesprongen beginnetjes van de code-regels) kunnen uitgeschakeld worden.
Nu zijn er best (ook online) html-compressors, die automatisch uit een code-pagina alle witruimtes, inspringers, nieuwe regels, enz. kunnen halen: om toch die ene regel te krijgen die je bedoelt.
MAAR:
wat levert het op, en wat zijn de nadelen?
- Even vooraf: compressie van de html maakt voor het indexeren door de Google-bot niets uit. Misschien indexeert ie de pagina een paar milliseconden sneller, maar als het volgende bezoek door de Google-bot over 3 weken of 1,5 maand zal zijn, maken die paar milliseconden ook niet het verschil.
- Het levert vermoedelijk een voordeel op van een 10% à 15% kleinere pagina aan kB's. Daarmee is de pagina in principe sneller geworden.
- Nu bestaat een pagina niet alleen uit html: er zitten vaak ook aan vast één of meer stylesheets, en één of meer javascript-bestanden. - Dat zijn ook "platte tekst"-bestanden, die in principe eveneens gecomprimeerd kunnen worden tot 1 regel per bestand. Ook daar zal een percentage bestandsomvang af kunnen gaan.
- Maar een pagina bestaat uit nog meer: de images! En vaak zijn die images in bestandsomvang groot ten opzichte van de rest. - Dus stel dat je de html+css+js bv. kan comprimeren met 15% van de oorspronkelijke grootte, dan zou het best zo kunnen zijn dat je winst voor het totale pakket (inclusief de images) maar 3% is.
- De te behalen winst zal dus relatief klein zijn.
- Vaak kan je veel meer kB- en snelheidswinst oogsten door aan de slag te gaan met de images. Bv. kijken welke jpg-compressie nog voldoende kwaliteit oplevert, kijken of een ander bestanmdformaat niet voordeliger is, enz. - Zie het artikeltje Gif, png, jpg: which is the best format?
- Het comprimeren moet je per bestand doen, dus pagina voor pagina.
- Nadeel van het comprimeren tot 1 regel is, dat je waanzinnig moet zoeken (en veel fouten kunt maken) als je iets op de pagina wilt veranderen.
- Daarbij komt dat het html-comprimeren een onomkeerbaar proces is. Je zou dus van elke pagina een ongecomprimeerde versie moeten hebben (om later te kunnen veranderen) plus een gecomprimeerde versie.
Om deze redenen ben ik er nooit toe overgegaan mijn html-code te gaan comprimeren: veel gedoe voor weinig resultaat.
Waarom doet bv. Google het dan toch (bv. in het
javascript voor z'n ads)?
Ik denk om een paar redenen tegelijk: snelheidswinst omdat het een redelijk fors bestand is (dan is een paar % toch altijd meegenomen), omdat het een bestand is dat niet om de haverklap aangepast moet worden, en omdat het een "high traffic" bestand is, dat niet alleen miljoenen keren door sites opgevraagd wordt, maar ook
tegelijkertijd door duizenden sites opgevraagd moet kunnen worden. Dan scheelt het veel webruimte (de parallele downloads moeten vanaf hun serverpark komen), en het scheelt ook veel processortijd voor de afhandeling.
Zolang wij gewone stervelingen niet in de buurt komen van het dataverkeer van Google, is de noodzaak dus wat kleiner.
Wat wel erg handig is om pagina's te optimaliseren, is de
YSlow aanvulling op de
Firebug add-on voor Firefox. Daarin zitten allerlei tip voor betere prestaties, en ook een tool als
Smush.it waarmee images kleiner gemaakt kunnen worden.
Met vriendelijke groet,
CSShunter