This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Regular Expression Objects

I am having trouble getting sites to either block or allow properly when using filter actions that I cloned from an existing, operation filter action.

I think it has something to do with duplicate REOs, but I am not sure.  So I did a test.

I created a filter action named "A1"
I created a Regular Expression Object named "A1"
Saved

I created a filter action named "A2"
I tried to create a REO named "A1" - but got the error "
The web filtering URL regular expression object with the name 'A1' already exists."

I have seen this error before and it was expected.

I then deleted A2 filter action.


I cloned "A1" filter action, named it "A2"
I checked and it has a REO named "A1" and it lets me edit it.
Any changes made to the REO in either the A1 or A2 filter action show in both filter actions.

So, when manually creating filter actions and adding REOs in that action, it is not possible to create a REO with the same name as an existing REO, no matter what filter action that REO exists in.  "I" see no way to assign an existing REO from one filter action to another filter action.

But.

When you clone a filter action, it also clones the REO(with the same name) from the parent filter action and lets you edit it.  

The problem is that changes to the REO in either of the filter profiles don't work properly and I am having to create another REO in that filter action and enter the regEx entries into the new REO in order to either block or allow sites.

Is this the expected behavior?


This thread was automatically locked due to age.
Parents
  • We looked at making RegEx Objects into reusable objects that can be used in multiple Filter Actions, but that was not practical in 9.2 and causes huge data migration headaches.

    In 9.0 there was was no object, just a list of RegEx strings.  In 9.1 we created RegEx Objects in order to solve a specific problem, and in my opinion it was not thought through enough and introduced new issues.  The implementation did not consider the big picture of how admins want to use blacklists and whitelists.

    In 9.2 we've improved things in RegEx objects but are still left with some of their underlying limitations.

    In 9.2 the website reclassification system is, in my opinion, a significantly better way of doing things.  You can block facebook by reclassifying it as Spyware.  [:)]

    Yes, you can reclassify paths as well.  When you get into doing that level of thing you may need to watch http logs to determine if (for example) it pulls images from other paths as well.  If you normally block history.com and use reclassification to set history.com/games to an allowed category you probably wont have a working page because it won't be able to load history.com/static/default.css or something.
Reply
  • We looked at making RegEx Objects into reusable objects that can be used in multiple Filter Actions, but that was not practical in 9.2 and causes huge data migration headaches.

    In 9.0 there was was no object, just a list of RegEx strings.  In 9.1 we created RegEx Objects in order to solve a specific problem, and in my opinion it was not thought through enough and introduced new issues.  The implementation did not consider the big picture of how admins want to use blacklists and whitelists.

    In 9.2 we've improved things in RegEx objects but are still left with some of their underlying limitations.

    In 9.2 the website reclassification system is, in my opinion, a significantly better way of doing things.  You can block facebook by reclassifying it as Spyware.  [:)]

    Yes, you can reclassify paths as well.  When you get into doing that level of thing you may need to watch http logs to determine if (for example) it pulls images from other paths as well.  If you normally block history.com and use reclassification to set history.com/games to an allowed category you probably wont have a working page because it won't be able to load history.com/static/default.css or something.
Children
No Data