Razor (CSHTML) – Neue View Engine für ASP.NET

Im Zusammenhang mit WebMatrix wird meist auch über Razor gesprochen.

Aber was ist Razor eigentlich?

Razor ist eine im letzten Jahr von Microsoft entwickelte neue View Engine, welche in Zusammenhang mit dem ASP.NET MVC Framework bzw. von WebMatrix neben einigen anderen View Engines eingesetzt werden kann.

Folgende View Engines stehen aktuell zur Verfügung:

  • ASPX (C#) == default View Engine (auch bekannt als WebFormViewEngine)
  • Razor (CSHTML)
  • NHaml
  • Spark

Eine ausführliche Beschreibung, was eine View Engine genau macht, würde den Rahmen dieses Beitrags sprengen. Daher folgt hier nur eine kurze Beschreibung der Hauptaufgaben einer View Engine.

Grundlegende Funktionalität einer View Engine:

  • Eine Vorlagen basierte Implementierung des Interface IViewEngine, welche einen Provider für die entsprechende View zur Verfügung stellt
  • Implementierung des IView Interface um den Inhalt der Vorlagen rendern zu können.
  • Die Implementierung der eigentlichen Engine, welche in der Lage ist den gerenderten Quellcode in ausführbaren Code zu übersetzen.

Wer ausführlichere Informationen  zum Thema View Engines benötigt, findet unter den nachfolgenden Links sowohl Basiswissen als auch Gegenüberstellungen der einzelnen Engines.

Coding4Fun -Developer Review – Four ASP.NET MVC View Engines (Englisch)

ScottGu’s Blog – Introducing “Razor” – a new view engine for ASP.NET (Englisch)

ASP.NET MVC (Model View Controller) – kurzer Rückblick

Im Zusammenhang mit WebMatrix und Razor taucht immer wieder der nachfolgende Begriff auf:

  • ASP.NET MVC (Model View Controller)

Dieser Model View Controller ist aber nichts neues und wird bereits seit 2007 in einem ASP.NET MVC Framework von Microsoft zur Verfügung gestellt.

Der Model View Controller ist allerdings die Voraussetzung für die Implementierung von Razor in der aktuellen Version von WebMatrix

Mehr Informationen zu ASP.NET MVC gibt es unter anderem bei den nachfolgenden Links:

ASP.NET MVC Framework (ScottGu’s Blog englisch Oktober 2007)

Erstellen von Webanwendungen ohne Webformulare (MSDN Magazin März 2008)

DotNetNuke und NET Framework 2.0 SP 1

Ich möchte in diesem Beitrag nicht ergründen, ob das von mir geschilderte Problem durch DotNetNuke oder den Service Pack 1 für das NET Framework 2.0 verursacht wird. Fakt ist auf jeden Fall das dieses Problem in der von mir beschriebenen Konstellation auftritt.

Das Problem stellte sich bei mir wie folgt dar (Windows XP Rechner):

  • Source Version von DotNetNuke 4.08.00 entpackt (C:\DNN_4_8_0).
  • development.config nach web.config umbenannt (Alle Einstellungen belassen)
  • Virtuelles Verzeichnis (dnn488) auf Localhost angelegt.
  • Verzeichnisrechte (C:\DNN_4_8_0) für ASPNET Benutzer (ALLE Rechte) gesetzt.
  • Internet Explorer, URL (localhost/dnn488) des virtuellen Verzeichnis eingegeben und aufgerufen.
  • Installationswizzard mit Auto ausgeführt.
  • Installation ist einwandfrei durchgelaufen.
  • Nun Link zum Start des Portal aufgerufen –> Nix.

Im IE einfach nur warten…

Mit Firefox bekommt man eine Meldung dass man sich in einer Endlosschleife befindet und man nie ein Ergebnis erzielen wird

Nach einigen Recherchen und Versuchen (wenn man anstelle der development.config die release.config verwendet geht es übrigens) war klar wo das Problem liegt.

<trust level="Medium" originUrl=".*" />

Der oben dargestellt Eintrag für dazu dass man in ein ewiges Redirect Status Codes 302 gerät.

Auf einem Entwicklungsrechner kann man einfach diese Zeile in der web.config auskommentieren und schon funktioniert der Aufruf des Portals wie erwartet.


Das Problem hat übrigens nichts mit der verwendeten DotNetNuke Version 4.8.0 zu tun, es tritt sowohl bei den neuen Versionen 4.8.1 und 4.8.2 als auch bei früheren Versionen 4.5.3 und 4.6.2 auf.

Cookies unter NET Framework 2.0

Geändertes Standardverhalten von Cookies unter NET Framework 2


Ich hatte bereits in einem anderen Blog über das Thema in Bezug auf DotNetNuke geschrieben, aber es hat ja eigentlich nichts spezielles mit DotNetNuke zu tun, sondern es ist eigentlich ein Thema des NET Framework’s im speziellen des NET Framework 2.0.


So möchte ich an dieser Stelle noch einmal kurz das Thema Cookies und das geänderte Standardverhalten unter NET Framework 2 in diesem Beitrag beschreiben.


Zuerst einmal die reinen Fakten:



  • Unter NET Framework 1.1 wurde die Gültigkeit eines Cookies automatisch auf 50 Jahre gesetzt (ja 50 Jahre).
  • Unter NET Framework 2.0 wird ein die Dauer der Gültigkeit eins Cookies auf Standard 30 Minuten gesetzt.

Um die Gültigkeit eines Cookies unter ASP.NET 2.0 zu verändern ist der folgende Eintrag in der web.config zuständig.


Je nach Anwendung kann der Eintrag etwas anders aussehen, nachfolgend 2 Beispiele.


Beispiel DotNetNuke (Version 4.5.3 Standardwert)

Original Eintrag

    <authentication mode=“Forms“>
      <forms name=“.DOTNETNUKE“ protection=“All“ timeout=“60″ cookieless=“UseCookies“ />
    </authentication>


In dieser Version von DotNetNuke beispielsweise ist der Eintrag der Standardwert timeout=“60″ bedeutet 60 min.

Mögliche Änderung

    <authentication mode=“Forms“>
      <forms name=“.DOTNETNUKE“ protection=“All“ timeout=“2880″ cookieless=“UseCookies“ />
    </authentication>


Der oben stehende Eintrag bedeutet 48 Stunden Cookies Gültigkeit.


Beispiel dasBlog (Version 2.0.7226.0)

Original Eintrag

<authentication mode=“Forms“>
     <!– NOTE: If you want to run MULTIPLE dasBlogs on the SAME Domain Name
      include the path in each blog’s Web.Config like path=“/dasblog1″ and path=“/yoursite“  as appropriate. –>
       <forms name=“.DASBLOGAUTH“ protection=“All“ timeout=“60″ path=“/“ cookieless=“UseCookies“ />
</authentication>

Mögliche Änderung

<authentication mode=“Forms“>
     <!– NOTE: If you want to run MULTIPLE dasBlogs on the SAME Domain Name
      include the path in each blog’s Web.Config like path=“/dasblog1″ and path=“/yoursite“  as appropriate. –>
       <forms name=“.DASBLOGAUTH“ protection=“All“ timeout=“525600″ path=“/“ cookieless=“UseCookies“ />
</authentication>


Der oben stehende Eintrag bedeutet zum Beispiel 1 Jahr Cookies Gültigkeit.


Allgemeiner Hinweis:

Nachdem man diesen Eintrag in der web.config geändert hat sollte man trotzdem noch zusätzlich den Cache löschen, oder einfach das web neu starten, damit das Cookies tatsächlich das neue Timeout erhält.

ASP.NET Redirect – Aber bitte Suchmaschinenfreundlich

Wenn Sie die URL zu Ihrer Webseite ändern müssen, sollten Sie bereits vorher die richtigen Maßnahmen ergreifen, dass ein Internet Surfer der auf diese Seite zugreifen möchte nicht den häßlichen Fehler 404 (Datei nicht gefunden) angezeigt bekommt.

Eine durchaus übliche Lösung hierfür ist es ein meta refresh hierfür zu verwenden.

Auf der URL eines Seite anzulegen welche als einzigen Inhalt den nachfolgenden meta refresh enthält.

meta http-equiv="refresh" content="0; URL=http://www.Domain.de/" />

Der oben dargestellte meta refresh leitet ohne Zeitverzögerung den Internet Surfer auf die im Parameter URL stehende neue Webseite um.

So weit so Gut, aber !!

Es gibt 3 Gründe warum man dies nicht machen sollte:
  1. Sie werden diese Umleitung ewig bestehen lassen müssen, da der Internet Surfer nie wirklich etwas von Ihrer neuen Internetseite erfährt.
  2. Suchmaschinen bewerten solche Umleitungen häufig als SPAM und streichen wenn Sie Pech haben, all Ihre Seiten aus Ihrer Datenbank.
  3. Das Thema Ranking spielt hier eine Rolle. Ich Denke jeder kennt das PageRank von Google. Also nehmen wir einmal an Sie hatten auf der alten URL einen PR von 5, im besten Fall akzeptiert die Suchmaschine Ihre Umleitung und behält Ihren Eintrag in Ihrer Datenbank. Das Ranking der Seite liegt aber weiterhin auf der alten URL und wird nicht zu einem eventuelle Ranking der neuen Seite hinzugezogen.

Was geschieht bei einem Redirect egal ob über meta-equiv oder über Source Code „Context.Response.Redirect“.

Die Seite wird umgeleitet und im Response Header wird ein Status Code 302 zurückgeben.

Dieser Status kommt sagt aus das die URL gefunden wurde. Gefunden bedeutet aber, Sie musste gesucht werden, nicht Gut !!

Wenn ein URL Zugriff einwandfrei verläuft dann sollte ein Status Code 200 zurückgegeben werden.

So jetzt haben wir was von Status 200 und 302 gehört, aber wie können wir es erreichen dass wir durch unseren Redirect die Suchmaschinen nicht böße machen und dass die neue URL als Quelle der Information im Internet bekannt wird.

Die Lösung heißt: Permanente Weiterleitung.

Eine Permanente Weiterleitung ist im ersten Moment auch nur ein Redirect, aber der zurückgegeben Status Code ist 301 (URL wurde verschoben). Diese Information nutzen die meisten Suchmaschinen um Ihre Einträge auf die neue URL in Ihren Datenbanken zu aktualisieren. Das hat den Vorteil. dass nach einige Zeit die Informationen über die neue URL direkt in den Suchmaschinen zur Verfügung stehen, und ganz wichtig, das auf der alten liegende PageRank wird auf die neue URL übernommen.

Wie kann ich jetzt eine Permanente Umleitung erstellen:

Mit einem meta-equiv leider nicht (nicht in ASP.NET)

Aber für was haben wir denn ein intelligentes Framework auf dem unser Web läuft.

Zu diesem Zweck erstellen wir einfach eine ASPX Seite die dem alten URL Namen entspricht.

In diese ASPX Datei schreiben wir folgenden Inline Code:

    <%@ Page Language="vb" AutoEventWireup="false"%>
    <SCRIPT runat="server">
    Sub Page_Load(ByVal sender As System.Object, ByVal e As System.EventArgs) Handles MyBase.Load
    Context.Response.Status = "301 Moved Permanently"
    Context.Response.AddHeader("Location", "<http://www.schelian.de/Default.aspx/tabid/189>")
    End Sub
    </SCRIPT>

Wenn Sie nun die Datei auf dem Server gespeichert haben wird eine permanente Suchmaschinenfreundliche Umleitung vorgenommen.

Hier ein Beispiel http://www.schelian.de/MindManager.aspx

Dieser Link wird auf den URL http://www.schelian.de/default.aspx/tabid/155 umgeleitet.

Und nun viel Spaß beim suchmaschinenfreundlichen Umleiten von Seiten!

ASP.NET große Dateien hochladen

Wer ASP.NET Anwendungen betreibt und das Hochladen (Upload) von Dateien ermöglicht, wird in vielen Fällen beim versuch größere Dateien (mehere MB groß) Fehlermeldungen erhalten und der Upload der Datei wird nicht funktionieren.

Viele Anwendungen (z. B. auch DotNetNuke) verwenden Standardeinstellungen in der web.config welche nicht für den Upload großer Dateien ausgelegt ist.

Schauen wir uns am Beispiel von DotNetNuke die hierfür notwendigen Einstellungen einmal an:

< HTTPRUNTIME usefullyqualifiedredirecturl=“true“ maxrequestlength=“4096″ />

Der oben dargestellte Eintrag ist der Standardeintrag aus der web.config DotNetNuke Version 3.1.0.

Durch den Parameter maxRequestLength=“4096″ werden Datei Uploads bis zu einer größe von 4 MB zugelassen.

Allerdings kann es trotz dieser Einstellung zu Fehlern beim Upload von Dateien kommen, auch wenn sie nicht größer sind. Der grund hierfür liegt daran, dass es noch zusätzliche Parameter für den Upload von Dateien gibt, die, wenn Sie nicht explizit angegeben werden mit Ihren Standardwerten verwendet werden.

In unserem Fall ist das der Parameter: executionTimeout.

Dieser Parameter enthält wenn er nicht gesetzt wird den Wert 90 (bedeutet 90 sekunden).

Wenn nun bedingt durch die Bandbreite der Upload einer Datei die auch kleiner sein kann, als der in maxRequestLength eingetragene Wert nicht innerhalb von 90 sekunden hochgeladen werden konnte endet der Upload mit einer Fehlermeldung.

Um nun diesen Timeout zu vergrößern müssen wir den Parameter executionTimeout in die web.config hinzufügen und mt dem benötigten TimeoutWert versehen.

Dies machen wir nun gleich zusammen mit der Erhöhung des zulässigen Wertes für die Dateigröße.

Der web.config Eintrag sollte dann so aussehen:

< HTTPRUNTIME usefullyqualifiedredirecturl=“true“>
executionTimeout=“7200″
maxRequestLength=“16384″ />

Wir erlauben also Dateien bis 16 MB größe und haben den Zeitraum in dem die Datei hochgeladen sein muss auf 10 minuten erhöht.

Spider Friendly URL – ASP.NET URL Rewriting

Hintergrund:

Dynamisch erstellte Web Seiten haben häufig mit Parameter gespickte URL’s. Manche Suchmaschinen können diese Parameter behafteten URL’s nicht oder nur schlecht auswerten.

Beispiele von URL’s:

Hier eine typische URL einer DotNetNuke Webseite:

http://www.dnnportal.de/default.aspx&tabid=179&type=art&site=40&parentid=48

Mit dem hier besprochenen Ansatz könnte die URL wie folgt aussehen http://www.dnnportal.de/Default.aspx/type/art/site/40/tabid/179/parentid/48

Mir ist auch schon aufgefallen das Webseiten von exakt gleichem Inhalt mit URL’s ohne Parameter häufig weiter oben in den Suchmaschinen angesiedelt sind, als die gleiche Seite mit parametrisierten URL’s.

Leider ist es nicht ohne weiteres Möglich diese Art von SFU (Spider Friendly URL’s) aus einem Programm welches nicht von vornherein dafür vorgesehen ist zu erzeugen. Und wenn, dann doch meist, nur mit vielen Kompromissen und in vielen Fällen auch nur mit Änderungen im Quellcode.

Die Aufgabenstellung lautet also eine Möglichkeit zu schaffen, SFU URL’s ohne oder mit nur geringen Änderungen des Quellcode’s anwendungsdurchgängig zu implementieren.

Die Idee

Die Idee zur Erstellung eines Programms welches Suchmaschinen freundliche URL’s (Spider Friendly URL’s) erstellt ist im Zusammenhang mit der Suchmaschinenoptimierung für DotNetNuke Portale entstanden.

Nachdem ich mir viele Ansätze für solch eine Lösung im Internet angesehen hatte und mit den Ergebnissen nicht zufrieden war (Es waren meist irgendwie keine durchgängigen Lösungen), bin ich auf einen Beitrag von Scott Van Vliet gestoßen, der mir dann als Basis für die Erstellung dieser Lösung gedient hat.

Der Beitrag von Scott Van Vliet basiert im groben darauf dass der vom Webserver an den Client gesendete Response gefiltert wird und bei dieser Filterung die dynamischen URL’s in statische URL’s ausgetauscht werden Und das bei einer Anforderung von einem Client die an den Server gesendete Statische URL wieder für die Internet Verwendung in die ursprüngliche Dynamische URL umgesetzt wird.

Wie Sie sich Denken können ist dies ein vorhaben, dass seine Tücken haben soll.

Aber ich kann Ihnen schon hier verraten, es funktioniert.

Eine fertige Lösung. welche die Konzepte dieses Beitrags umsetzt können Sie auf DNNPortal im Download Bereich herunterladen.

Für registrierte Benutzer liegt auch der komplette Source Code als Download bereit.

Ich habe dann auf Basis dieses Lösungsansatzes dieses Modul HPS.Utilities.SFU erstellt.

Grundsätzliche Lösung

In diesem Kapitel möchte ich den Grundsätzlichen Weg beschreiben, welcher für diese Lösung beschritten wird.

Normale Webanforderung

Schauen wir uns doch zuerst einmal an wie der normale Aufruf einer Web Seite funktioniert.

graphic

Der Client sendet eine Request an den Server. Der Request besteht aus einer angeforderten URL. Nehmen wir als Beispiel die folgende URL:

http://www.dnnportal.de/default.aspx&tabid=163.

In diesem Fall bedeutet das, der Client fordert die Homepage der Web Anwendung www.dnnportal.de an.

Der Server empfängt nun diese Anforderung, die Webanwendung (wir sprechen ja über ASP.NET) löst die Parameter auf und schickt als Response die gewünschte Web Seite als Stream zum Browser.

Soweit zur normalen Anforderung einer Webseite eines Client vom Server.

Ansatzpunkte zur Umsetzung

Betrachten wir uns das ganze mal etwas näher was wir erreichen wollen:

graphic

Gewünscht wäre, der Client Request lautet http://www.dnnportal.de/default.aspx/tabid/163, den Request den der Server bekommt sollte aber http://www.dnnportal.de/default.aspx?tabid=163 lauten.

In diesem Fall würde der Server den Request des Client verstehen und im den Response (also die gewünschte Webseite) an ihn zurücksenden.

Schauen wir uns doch mal an was der Server an den Client sendet.

Es sendet ihm den Inhalt der Webseite http://www.dnnportal.de/default.aspx?tabid=163 in diesem Inhalt (der Content) können sich Links auf andere Seiten oder auf Java Skript oder sonstiges mit meist absoluten Pfadangaben enthalten, die immer auf das Wurzelverzeichnis der aktuellen Web Anwendung (also unserer Dynamischen Web Anwendung) verweist.

Somit erhält der Client Links die im Format http://www.dnnportal.de/default.aspx?tabid=163 gehalten sind.

Eigentlich wollen wir ja aber das der Client die URL Informationen im Format http://www.dnnportal.de/default.aspx/tabid/163 erhält.

Wenn wir uns die obige Abbildung anschauen dann ist dort bereits der Ansatz der Lösung zu erkennen.

Wenn wir die beiden Rechtecke Response vom Server und Request vom Client nicht als Beschreibung sondern als die Möglichkeit sehen, dort die ein und ausgehenden Stream (Anforderungen und Antworten) so zu manipulieren, dass Sie unser gewünschte Resultat ergeben.

Der Oberbegriff für unsere Lösung heißt also HTTPHandler.

Wir erzeugen also ein Klassenmodul welches als HTTPHandler später über die Web.Config aktiviert wird.

Also erzeugen wir eine Klasse (Diese Klasse muss von der Klasse System.Web.IHttpModule abgeleitet sein.):

public class SfuHttpModule : System.Web.IHttpModule
{

}
Request (Eingehende Streams)

Um den eingehenden Stream abzufangen und zu ändern bevor wir Ihn an den Webserver weiterleiten gibt es die Möglichkeit einen Event der ausgelöst wird wenn eine Anforderung zum Server geschickt wird auf eine eigene Event Methode umzulenken.

Dies geschieht auf folgende Art und Weise.

Im Init Event unseres HTTPHandler weisen wir einen neue Event Methode zu:

public void Init(HttpApplication application)
{
     application.BeginRequest +=new EventHandler(Application_BeginRequest);
}

Das bedeutet immer wenn ein Request an den Server gesendet wird, wird durch die Event Methode Application_Begin_Request unseres HTTPHandler aufgerufen.

An dieser Stelle behandle ich die dort durchgeführten Aktionen rein generisch, nähere Erläuterungen was in der Methode genau geschieht folgt später in diesem Artikel.

public void Application_BeginRequest(object sender, EventArgs e)
{
     // Hier wird jetzt eine Funktion eingefügt, welche die eingehende statische URL wieder               //in die ursprüngliche dynamische URL umwandelt.
}
Response (Ausgehende Streams)

Um den Inhalt der an den Client übertragen wird zu manipulieren, ist es notwendig den vom Server ausgehenden Stream abzufangen und zu manipulieren.

Um es gleich vorweg zu sagen, dies ist die wesentlich größere Herausforderung. Hierbei handelt es sich ja nicht nur um eine URL die abgefangen und manipuliert werden muss, sondern um den gesamten Inhalt der Webseite die vom Server an den Client übertragen wird.

Aber das es dafür Lösungsmöglichkeiten gibt sehen wir ja in diesem Artikel.

Wir gehen also wie folgt vor und registrieren einen weiteren Event (hier fett dargestellt) in unserer Init Methode des HTTPModules:

public void Init(HttpApplication application)
{
     application.BeginRequest +=new EventHandler Application_BeginRequest);

     application.PostRequestHandlerExecute += new EventHandler(application_PostRequestHandlerExecute);
}

Das hinzufügen des Events application_PostRequestHandlerExecute hat zur Folge dass jedesmal wenn der Server einen Response an eine Client sendet unsere Event Methode aufgerufen wird bevor der Client die Daten des Response erhält.

An dieser Stelle auch nur die generische Beschreibung was in dieser Methode geschieht.

private void application_PostRequestHandlerExecute(object sender, EventArgs e)
{
// Daten vom Server empfangen und manipulierte Daten dann zum Client senden
}

Dieses beschriebene Ansinnen ist etwas umfangreicher als es hier dargestellt ist und wird später näher erläutert.

Zusammenfassung

Wenn wir also die eingehenden und ausgehenden Streams abfangen und manipulieren können, sollte es möglich sein, die gewünschten Anforderungen zu erfüllen.

Im nächsten Abschnitt werden wir auf die einzelnen Funktionen die wir implementieren müssen näher eingehen.

HTTPHandler im Detail

Nun wird es ernst, in diesem Abschnitt werden nun die einzelnen Funktionen beschrieben die notwendig sind um die ein und ausgehenden Streams abzufangen und zu manipulieren.

Beginnen wir mit dem einfacheren Teil.

Beginn_Request

Schauen wir uns zuerst einmal an, wie die Event Methode nach unserer Implementierung aussieht und welche Funktionalitäten darin versteckt sind:

public voidApplication_BeginRequest(objectsender, EventArgs e)
{
       HttpContext context = ((HttpApplication)sender).Context;
       context.RewritePath(SfuUtil.FromSfuUrl(context.Request.Path) );
}

In einfachen Worten beschrieben, wird in der Methode die Funktion context.RewritePath() aufgerufen um die eingehende URL im statischen Format durch die ursprüngliche dynamische URL umzuschreiben, so dass der Server uns die zu dieser URL gehörigen Informationen zurückliefern kann.

Wir verwenden hierzu die Funktion FromSfuUrl der Klasse SfuUtil. Diese Funktion der Klasse wandelt einfach die statische in die dynamische URL um.

Um diesen Bericht nicht unnötig aufzublasen möchte ich keine detaillierte Erläuterung der Klasse SfuUtil vornehmen. Die Klasse ist im Source Code enthalten und bei Fragen können diese gerne per Email an mich gesendet werden.

PostRequestHandlerExecute

Nun zum Interessanteren Teil der Lösung.

private void application_PostRequestHandlerExecute(object sender, EventArgs e)
{
     HttpApplication application = (HttpApplication)sender;
     string _querystring = application.Context.Request.QueryString.ToString();
     application.Context.Response.Filter = new RequestFilter(application.Context.Response.Filter, application.User);
}

Wie sie sehen wird im PostRequestHandlerExecute ein weiterer Event registriert. Ein Context.Response.Filter. Dieser Event wird immer dann ausgelöst wenn der Server Daten zum Client senden möchte.

Das was nun folgt ist der eigentliche Höhepunkt dieser Anwendung.

RequestFilter

Diese Klasse enthält nun die Funktionalität den ausgehende Stream vom Client zum Server abzufangen und zu manipulieren. Aber sehen Sie selbst:

Die Klasse muss von Stream abgeleitet werden, diese wiederum erfordert dass eine Anzahl von Methoden überschrieben werden müssen, da sonst die Implementierung der Klasse nicht vorgenommen werden kann.

Erforderliche Überschreibungen:

Nachfolgende werden die Methoden aufgeführt die zwingend Überschrieben werden müssen, damit unsere Klasse von der Stream Klasse abgeleitet werden kann.

public override bool CanRead
{

     get

     {

          return true;

     }

}

public override bool CanSeek
{

     get

     {

          return true;

     }

}

public override bool CanWrite
{

     get

     {

          return true;

     }

}

public override long Length
{

     get

     {

          return 0;

     }

}

public override long Position
{

     get

     {

          return _position;

     }

     set

     {

          _position = value;

     }

}

public override long Seek(long offset, SeekOrigin origin)
{

     return _sink.Seek(offset,origin);

}

public override void SetLength(long value)
{

     _sink.SetLength(value);

}

public override void Close()
{

     _sink.Close ();

}

public override void Flush()
{

     _sink.Flush();

}

public override int Read(byte[] buffer, int offset, int count)
{

     return _sink.Read(buffer, offset, count);

}
Write Methode (Hier ist das Herzstück unseres Content Filter)
public override void Write(byte[] buffer, int offset, int count)

{

     string sBuffer = Encoding.Default.GetString(buffer, offset, count);

     sBuffer = _tempBuffer + sBuffer.Trim();

     if (buffer.Length != count)         

     {

          int idx = sBuffer.LastIndexOf(">");

          _tempBuffer = sBuffer.Substring(idx + 1);

          sBuffer = sBuffer.Substring(0,idx+1);

     }

     MatchCollection hrefMatches = Regex.Matches(sBuffer, RegexPattern.HrefPattern, RegexOptions.IgnoreCase);

     HttpContext Context = HttpContext.Current;

     if ((hrefMatches.Count > 0))

     {

          try

          {

               foreach (Match match in hrefMatches)

               {

                    string href = match.Groups[match.Groups.Count - 2].Value;

                    if (href.IndexOf(Context.Request.Headers["Host"]) > 0)

                         href = href.Substring(href.IndexOf(Context.Request.Headers["Host"])+ Context.Request.Headers["Host"].Length );

                    if (Regex.IsMatch(href, RegexPattern.AspxPattern) &&

                         !Regex.IsMatch(match.Value, RegexPattern.ImgPattern) &&

                         !Regex.IsMatch(match.Value, RegexPattern.CssPattern) &&

                         !Regex.IsMatch(match.Value, RegexPattern.ScriptPattern))

                    {

                         href = href.Replace(href, SfuUtil.ToSfuUrl(href));

                    }

                    if (!Regex.IsMatch(href, RegexPattern.HttpProtocolPattern) &&

                         !Regex.IsMatch(href, RegexPattern.MailToPattern,RegexOptions.IgnoreCase) &&

                         !Regex.IsMatch(href, RegexPattern.AnchorPattern) &&

                         !Regex.IsMatch(href, RegexPattern.JavascriptHtmlStatementPattern))

                    {

                         if (!Regex.IsMatch(href, RegexPattern.AbsolutePathPattern))

                         {

                              href = Regex.Match(Context.Request.Path, RegexPattern.CurrentPathPattern).Groups[1].Value + href;

                         }

                         sBuffer = sBuffer.Replace(match.Value, match.Value.Replace(match.Groups[match.Groups.Count - 2].Value, href));

                    }

               }

          }

          catch (Exception ex)

          {

               System.Diagnostics.Debug.WriteLine(ex.Message);

          }

     }

     byte[] bufferNew = Encoding.Default.GetBytes(sBuffer);

     _sink.Write(bufferNew, 0, bufferNew.Length);

}

Nachdem wir den HTTPHandler erzeugt und die Events wie in diesem Artikel beschrieben haben registriert haben, wird die Methode Write immer dann ausgeführt wenn der Server etwas an den Client senden möchte. Wir müssen in dieser Methode jetzt selbst dafür sorgen dass der Client eine Antwort von unserem Server erhält. Wenn wir an dieser Stelle nichts senden, bekommt der Client keinen Response.

Nachdem ich mit dieser Methode gearbeitet habe sind mir fast unbegrenzte Möglichkeiten für den Einsatz eingefallen, aber bleiben wir nun erst einmal bei unserem Thema und schauen uns die Methode näher an.

public override void Write(byte[] buffer, int offset, int count)

Die Methode erhält als Parameter im Parameter buffer den Response der vom Server auf den Request des Client zurück gesendet werden soll.

Diesen Buffer können wir nun lesen, manipulieren und anschließend an den Client als Server Response senden (Der Client bekommt davon nichts mit)

Kommen wir aber gleich zu einem Problem, was wenn nicht gelöst zu einem echten Problem werden kann.

Der Server sendet maximal 25 KByte (diese Zahl ist nicht genau, konnte keine genaue Definition finden) auf einmal an den Client. Das bedeutet wenn größere Webseiten Inhalten an den Client gesendet werden, so wird diese Methode mehrfach aufgerufen und jeweils ein Teil des Webseite an den Client gesendet. Dies kann aber in unserem Fall (den wir später noch näher erläutern) des Stringvergleiches dazu führen, dass wir nur einen Teil des gesamten String während eines Aufrufs der Methode Write enthalten haben.

Um dies zu berücksichtigen habe ich folgenden Code eingebaut:

int idx = sBuffer.LastIndexOf(">");
_tempBuffer = sBuffer.Substring(idx + 1);
sBuffer = sBuffer.Substring(0,idx+1);

Da der Filter dazu verwendet wird HTML Seiten an den Client zu übertragen suche ich einfach das letzte vorkommen eines abschließenden Tags.

Kopiere alles einschließlich des letzten Tags in die zu verarbeitende Puffervariable sBuffer. Alles was hinter dem letzten abschließenden Tag ist kopiere ich in einen temporären Zwischenpuffer _tempBuffer.

Dieser wird beim nächsten Aufruf an den Anfang von sBuffer kopiert und anschließen geleert.

Hierdurch wird sichergestellt dass bei den Stringvergleichen immer ein ganzer in einem Tag eingeschlossener String zur Verfügung steht und nicht nur ein Teil eines href oder ähnlichem im sBuffer verarbeitet wird.

Den Teil des Stringvergleiches werde ich an dieser Stelle auch nicht ausführlich beschreiben, es sei nur soviel das gesagt, dass alle vorkommen von href gesucht werden und mit der Funktion ToSfu der Klasse SfuUtil von dynamischen URL in statischen URL umgewandelt werden. Außerdem werden Tags wie src, img, java scripte etc im sBuffer gesucht und anstelle von relativen angaben wie Image\logo.gif gegen absolute angaben wie http://www.dnnportal.de/imager/logo.gif ausgetauscht.

Zum Schluss werden die Daten des sBuffer als Stream zum Client gesendet.

Klasse in der Übersicht

public class RequestFilter : Stream
{
    private Stream _sink;
    protected IPrincipal _user;
    private long _position;
    bool openTag, endTag;
    string _tempBuffer;
    public RequestFilter(Stream sink, IPrincipal user)
    {
        _sink = sink;
        _user = user;
        openTag = false;
        endTag = false;
        _tempBuffer = String.Empty;
    }
    public override bool CanRead
    {
        get
        {
            return true;
        }
    }
    public override bool CanSeek
    {
        get
        {
            return true;
        }
    }
    public override bool CanWrite
    {
        get
        {
            return true;
        }
    }
    public override long Length
    {
        get
        {
            return 0;
        }
    }
    public override long Position
    {
        get
        {
            return _position;
        }
        set
        {
            _position = value;
        }
    }
    public override long Seek(long offset, SeekOrigin origin)
    {
        return _sink.Seek(offset, origin);
    }
    public override void SetLength(long value)
    {
        _sink.SetLength(value);
    }
    public override void Close()
    {
        _sink.Close();
    }
    public override void Flush()
    {
        _sink.Flush();
    }
    public override int Read(byte[] buffer, int offset, int count)
    {
        return _sink.Read(buffer, offset, count);
    }
    public override void Write(byte[] buffer, int offset, int count)
    {
        string sBuffer = Encoding.Default.GetString(buffer, offset, count);
        sBuffer = _tempBuffer + sBuffer.Trim();
        if (buffer.Length != count)
        {
            int idx = sBuffer.LastIndexOf(">");
            _tempBuffer = sBuffer.Substring(idx + 1);
            sBuffer = sBuffer.Substring(0, idx + 1);
        }
        MatchCollection hrefMatches = Regex.Matches(sBuffer, RegexPattern.HrefPattern, RegexOptions.IgnoreCase);
        HttpContext Context = HttpContext.Current;
        if ((hrefMatches.Count > 0))
        {
            try
            {
                foreach (Match match in hrefMatches)
                {
                    string href = match.Groups[match.Groups.Count - 2].Value;
                    if (href.IndexOf(Context.Request.Headers["Host"]) > 0)
                        href = href.Substring(href.IndexOf(Context.Request.Headers["Host"]) + Context.Request.Headers["Host"].Length);
                    if (Regex.IsMatch(href, RegexPattern.AspxPattern) &&
                    !Regex.IsMatch(match.Value, RegexPattern.ImgPattern) &&
                    !Regex.IsMatch(match.Value, RegexPattern.CssPattern) &&
                    !Regex.IsMatch(match.Value, RegexPattern.ScriptPattern))
                    {
                        href = href.Replace(href, SfuUtil.ToSfuUrl(href));
                    }
                    if (!Regex.IsMatch(href, RegexPattern.HttpProtocolPattern) &&
                    !Regex.IsMatch(href, RegexPattern.MailToPattern, RegexOptions.IgnoreCase) &&
                    !Regex.IsMatch(href, RegexPattern.AnchorPattern) &&
                    !Regex.IsMatch(href, RegexPattern.JavascriptHtmlStatementPattern))
                    {
                        if (!Regex.IsMatch(href, RegexPattern.AbsolutePathPattern))
                        {
                            href = Regex.Match(Context.Request.Path, RegexPattern.CurrentPathPattern).Groups[1].Value + href;
                        }
                        sBuffer = sBuffer.Replace(match.Value, match.Value.Replace(match.Groups[match.Groups.Count - 2].Value, href));
                    }
                }
            }
            catch (Exception ex)
            {
                System.Diagnostics.Debug.WriteLine(ex.Message);
            }
        }
        byte[] bufferNew = Encoding.Default.GetBytes(sBuffer);
        _sink.Write(bufferNew, 0, bufferNew.Length);
    }
}
Schlussbemerkungen

Die in diesem Artikel beschriebenen Klassen sind nicht vollständig und somit nicht lauffähig.

Außerdem gibt es bei dieser Verarbeitung noch einige andere Aspekte die gesondert betrachtet werden müssen.

Einen kompletten lauffähigen HTTPHandler der genau auf diesem Artikel basiert kann hier herunterladen.

Für registriert Mitglieder steht hier auch der Quellcode zum Download zur Verfügung.

Für Anregungen, Kritik oder Verbesserungsvorschläge bitte einfach Kommentare hinterlassen.

Der Autor: Hans-Peter Schelian